Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

请问你的大模型底座用的是什么

Answer

大模型的底座相关知识如下:

  • 大模型像一个多功能的基础平台(有时也被称为“基座模型”),可以处理多种不同的任务,应用范围广泛,拥有更多通识知识。
  • 大模型的知识来源于训练过程中接触到的数据,这些数据是有限的,其知识库不会自动更新,只能回答在训练过程中见过或类似的问题,在某些特定或专业领域的知识可能不够全面。
  • 从整体分层的角度来看,大模型整体架构的基础层为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。数据层包括企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。模型层有 LLm(大语言模型)或多模态模型,如 GPT 一般使用 transformer 算法实现,多模态模型训练所用数据与 llm 不同,用的是图文或声音等多模态的数据集。平台层是模型与应用间的部分,如大模型的评测体系或 langchain 平台等。表现层即应用层,是用户实际看到的地方。
  • 零跑汽车基于百炼实现大模型落地零跑座舱,阿里云通过百炼平台实现大模型落地零跑座舱,为用户的多种互动提供支持,零跑汽车构建了开放、可扩展的大模型应用架构,基于统一的大模型底座,实现了零跑座舱大模型应用场景的快速扩展与迭代。
Content generated by AI large model, please carefully verify (powered by aily)

References

十七问解读生成式人工智能

“小模型”确实有其优势,尤其是在特定任务上表现得非常出色。比如,如果你训练了一个专门识别猫?或狗?的模型,它在这个任务上可能非常精准。然而,这个模型就无法用于其他任务(因为用来训练模型的数据主要是由猫猫狗狗的照片组成的)。而“大模型”则不同,它像一个多功能的基础平台(有时也被称为“基座模型”)。大模型可以处理多种不同的任务,应用范围非常广泛,并且拥有更多的通识知识。这就是为什么尽管“小模型”在某些特定领域内表现优异,我们仍然需要“大模型”的原因:它们能够在更广泛的场景中提供支持和解决问题。[heading1]问题十一、大模型拥有无限知识吗?[content]大模型并不拥有无限知识。大模型的知识来源于它们在训练过程中接触到的数据,而这些数据是有限的。虽然大模型可以处理和生成大量的信息,但它们的知识来自于它们所训练的数据集,这些数据集虽然庞大,但仍然是有限的。因此,大模型只能回答它们在训练过程中见过或类似的问题。大模型在训练之后,其知识库不会自动更新。也就是说,它们无法实时获取最新的信息,除非重新训练或通过其他方式更新模型。大模型在某些特定或专业领域的知识可能不够全面,因为这些领域的数据在训练集中可能较少。[heading1]问题十二、大型语言模型的运作机制是什么?[content]大型语言模型的运作机制主要是通过大量的数据训练来学习语言的结构和模式,然后根据输入生成相应的文本。这些模型通过阅读大量的文本数据,学习到语言中的词汇、语法、句子结构以及上下文关系。当你给它一个输入时,它会根据这些学习到的知识生成一个连贯的回答。所以它永远在猜测下一个字符将要生成什么,类似于词语接龙游戏。

零跑汽车基于百炼实现大模型落地零跑座舱

零跑汽车成立于2015年12月24日,是一家创新型的智能电动汽车品牌,零跑汽车自成立以来,始终坚持核心技术的自主研发,是拥有智能电动汽车完整自主研发能力以及掌握核心技术的整车厂家,2023年零跑已位列新能源品牌销量前三。从2017年起,零跑汽车便与阿里云展开深度合作。近日,零跑汽车已对OTA功能完成大规模升级,携手阿里云首次在座舱场景中增加“语音大模型”功能,用于聊天、基础知识问答、文生图等场景,提升用户驾驶体验。[heading1]阿里云的解决方案[content]阿里云通过百炼平台实现大模型落地零跑座舱,为用户的信息查询、车辆控制、娱乐与媒体服务、秒极生图等互动提供支持,提升用户的座舱体验。接入通义大模型实现开放式语音交互阿里云通义大模型帮助零跑汽车改变了传统的固定形式的问答模式,支持用户与零跑智能座舱进行开放式语音交互(闲聊场景),进行自然、连贯的多轮对话,可秒级响应,同时结合企业知识库和互联网知识库,满足用户多元化的需求。基于语音调用通义万相实现秒级作图零跑采用语音助手调用云端通义系列大模型,帮助用户通用语音调用通义万相实现文生图换壁纸,实现秒级作图,提升娱乐互动;支持语音查找如何使用汽车功能、规划路径等功能,丰富用户操作体验;知识库内容覆盖了零跑全系汽车知识和其他汽车品牌开放领域的信息。基于百炼构建大模型应用架构基于百炼平台,零跑汽车构建了开放、可扩展的大模型应用架构,基于统一的大模型底座,实现了零跑座舱大模型应用场景的快速扩展与迭代,降低大模型应用的创新门槛与成本。

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

首先为方便大家对大模型有一个整体的认知,我们先从大模型的整体架构着手,来看看大模型的组成是怎么样的。下面是我大致分的个层。从整体分层的角度来看,目前大模型整体架构可以分为以下几层:[heading3]1.基础层:为大模型提供硬件支撑,数据支持等[content]例如A100、数据服务器等等。[heading3]2.数据层[content]这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集[heading3]3.模型层:LLm或多模态模型[content]LLm这个大家应该都知道,large-language-model,也就是大语言模型,例如GPT,一般使用transformer算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与llm不同,用的是图文或声音等多模态的数据集[heading3]4.平台层:模型与应用间的平台部分[content]比如大模型的评测体系,或者langchain平台等,提供模型与应用间的组成部分[heading3]5.表现层:也就是应用层,用户实际看到的地方[content]这个就很好理解了,就不用我多作解释了吧

Others are asking
我想让我的论文降低AIGC使用率,请问我有什么具体可以操作的办法
以下是一些降低论文中 AIGC 使用率的具体操作办法: 1. 使用 AIGC 论文检测工具: Turnitin:广泛使用的学术剽窃检测工具,增加了检测 AI 生成内容的功能。使用方法是上传论文,系统会自动分析文本并提供详细报告,标示出可能由 AI 生成的部分。 Copyscape:主要用于检测网络上的剽窃行为,虽不是专门的 AIGC 检测工具,但能发现可能被 AI 生成的重复内容。输入文本或上传文档,系统会扫描网络查找相似或重复内容。 Grammarly:提供语法检查和剽窃检测功能,其剽窃检测部分可帮助识别可能由 AI 生成的非原创内容。将文本粘贴到编辑器中,选择剽窃检测功能,系统会提供分析报告。 Unicheck:基于云的剽窃检测工具,适用于教育机构和学术研究,能检测 AI 生成内容的迹象。上传文档或输入文本,系统会分析并生成报告,显示潜在的剽窃和 AI 生成内容。 :专门设计用于检测 AI 生成内容的工具,使用先进算法分析文本,识别是否由 GPT3 或其他 AI 模型生成。上传文档或输入文本,系统会提供详细报告。 :提供免费的 AI 内容检测工具,可识别文本是否由 AI 生成。将文本粘贴到在线工具中,点击检测按钮,系统会提供分析结果。 GPTZero:专门设计用于检测由 GPT3 生成内容的工具,适用于教育和出版行业。上传文档或输入文本,系统会分析并提供报告。 Content at Scale:提供 AI 内容检测功能,帮助用户识别文本是否由 AI 生成。将文本粘贴到在线检测工具中,系统会分析并提供结果。 此外,为了从根本上降低 AIGC 使用率,您还需要注重自身的思考和研究,确保论文内容是基于您的独立见解和深入分析。
2025-04-14
请问DeepSeek如何与生产型企业进行结合创造效益 ?
DeepSeek 与生产型企业的结合可以从以下几个方面创造效益: 1. 模型优化与性能提升:英伟达基于 FP4 优化的 DeepSeekR1 检查点现已在 Hugging Face 上开源。这种优化将模型Transformer 模块内的线性算子的权重和激活量化到了 FP4,适用于 TensorRTLLM 推理。每个参数从 8 位减少到 4 位,使磁盘空间和 GPU 显存的需求减少约 1.6 倍。使用 TensorRTLLM 部署时,需要支持 TensorRTLLM 的英伟达 GPU(如 B200),并且需要 8 个 GPU 来实现 tensor_parallel_size=8 的张量并行。代码利用 FP4 量化、TensorRT 引擎和并行计算,实现高效、低成本的推理,适合生产环境或高吞吐量应用。 2. 部署指南:社区伙伴 Hua 投稿的《在 Azure AI Foundry 部署 DeepSeek 大模型全指南》,手把手指导在微软 Azure AI Foundry 平台上完成 DeepSeek R1(671B)模型的完整部署流程,包含环境准备、资源管理、模型测试及 API 调用说明。 3. 为企业带来实质提升:DeepSeek 的强化学习和联网搜索能力改变了信息获取方式,从“检索—阅读—摘要”转变为“提问—获得答案”,大幅提升工作效率。其开源策略打破了技术垄断,让国内大模型能力迅速提升。在企业级部署方面,通过行业知识蒸馏和领域自适应训练,实现对企业非结构化数据的深度解析能力。特别是在实时决策支持、多模态交互及复杂知识图谱构建方面,为企业打造具备持续进化能力的数字神经中枢。这种“AI 即服务”的部署模式,重构了传统工作流效率,并通过预测性分析和认知自动化开启企业智能化的第二增长曲线。同时,还可以考虑垂直场景强化学习机制的增加,如在智能制造场景中嵌入设备故障模式自发现的奖惩机制;以及可信计算架构的升级,针对金融、医疗等高合规需求场景。
2025-04-10
请问有什么AI最新在零售行业的应用,最好有趣,实用有建设性
以下是 AI 在零售行业的一些有趣、实用且有建设性的最新应用: 1. 舆情、投诉、突发事件监测及分析:通过 AI 技术实时监测和分析消费者的反馈和市场动态,帮助企业及时做出应对策略。 2. 品牌营销内容撰写及投放:利用 AI 生成吸引人的营销文案,并精准投放到目标受众。 3. 自动化库存管理:基于历史销售数据和其他相关因素,预测未来的库存需求,优化库存配置,降低成本。 4. 自动生成或完成 SKU 类别选择、数量和价格分配:提高商品管理的效率和准确性。 5. 客户购物趋势分析及洞察:深入了解消费者的购物偏好和趋势,为企业的产品开发和营销策略提供依据。 此外,在医疗药品零售领域,AI 也有广泛的应用: 1. 药品推荐系统:根据用户购买记录和症状描述等数据,推荐合适的非处方药品和保健品,提高销售转化率。 2. 药品库存管理:分析历史销售数据、天气、疫情等因素,预测药品需求量,优化库存策略。 3. 药品识别与查询:借助计算机视觉技术,用户通过手机拍摄药品图像即可获取相关信息。 4. 客户服务智能助手:基于自然语言处理技术,回答顾客关于购药、用药、保健等常见问题。 5. 药店运营分析:分析销售、顾客流量、库存等大数据,发现潜在问题和优化空间。 6. 药品质量监控:利用机器视觉、图像识别等技术检测药品的包装、标签、颜色等是否合格。 7. 药品防伪追溯:利用区块链等技术实现全流程的药品溯源,保障药品供应链的安全和可信度。 总之,AI 技术在零售行业的应用能够提升购物体验、优化运营管理、降低成本,并为企业创造更多的价值。
2025-04-10
我是一名日语大四学生,我要利用我的开题报告结合deepseek完成一篇论文初稿,请问怎么向deepseek提问
要向 DeepSeek 提问以结合您的开题报告完成论文初稿,您可以遵循以下正确的提问模板: 1. 赋予角色(选填):对 DeepSeek 赋予一个特定的角色,以便它能更专业地回答您的问题。 2. 背景/现状(必填):提供尽可能详细的背景信息,例如您的开题报告的主题、研究目的、已有的研究进展等,以使 DeepSeek 更好地理解您的问题。 3. 需求/目标(必填):明确告诉 DeepSeek 您的需求,比如您希望它根据开题报告提供论文大纲、分析相关数据、提供文献综述等,提出的需求越明确获得的答案越有价值。 4. 补充要求:您还可以提出关于回答的格式、风格、字数等方面的要求。 例如:您可以这样提问“我赋予您论文撰写助手的角色,我的开题报告主题是关于日本文化在现代社会中的变迁,目前我已经完成了初步的文献收集和分析,我的目标是请您根据这份开题报告为我生成一个详细的论文大纲,要求大纲结构清晰,逻辑连贯,具有一定的创新性”。
2025-03-31
我是一名日语大四学生,我要利用我的开题报告和文献综述结合deepseek完成一篇论文初稿,请问怎么向deepseek提问
向 DeepSeek 提问时,可遵循以下万能通用的提问公式:提示词=赋予角色+背景/现状+目标/需求+补充要求。 1. 赋予角色(选填):对 DeepSeek 赋予一个特定的角色,以便它能更专业地回答您的问题。 2. 背景/现状(必填):提供尽可能详细的背景信息,以使它更好地理解您的问题,并为您提供更准确的答案。例如您是日语大四学生,正在进行开题报告和文献综述相关工作。 3. 需求/目标(必填):明确告诉 DeepSeek 您的需求,比如完成一篇结合开题报告和文献综述的论文初稿。 4. 补充要求:例如指定写作风格要具有吸引力、友好性和幽默感等。 另外,在使用 DeepSeek 时还需注意: 对于像“仅通过东方集团的历年公开财务数据,分析这家公司的潜在投资机会和风险”这样的特定需求,可能需要进一步追问以获得更满意的结果。 与 DeepSeek 交流时,在其提供方法建议后,可以追问背后的方法论。 对于创作类的需求,如脱口秀段子,可以结合特定人物的特点和风格,并指定主题和字数等要求。
2025-03-31
我想做个专业领域的智能客服,请问您有一些类似案例吗?
以下是为您提供的一些相关案例: 在 Manus 案例中,有让其创建需要上传文件的 dify 工作流,如根据多篇文章写脱口秀段子,并制作简便美观的网页和接入工作流的 api 等复杂操作。 有关于智能客服场景如何帮助企业更好地对内服务客服、对外服务客户的案例。 在通用 AGENT 案例合集中,包括生活娱乐类 AGENT 方面的案例,如根据出差计划做成的具有多种功能的互动式网页,如供应商工厂探索地图;还有整活娱乐方面的案例,如荒谬句子生成器和豆瓣品味分析师。荒谬句子生成器实现了小时候的线下游戏功能,并增加了扩展句子和虚拟专家评论功能;豆瓣品味分析师能根据用户的豆瓣 id 获得评价信息并生成锐评报告。
2025-03-28
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14