Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

大模型结构剖析

Answer

大模型的结构主要包括以下几个部分:

  1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。
  2. 数据层:企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。
  3. 模型层:包括 LLm(大语言模型,如 GPT,一般使用 transformer 算法实现)和多模态模型(如文生图、图生图等模型,训练所用数据为图文或声音等多模态数据集)。
  4. 平台层:模型与应用间的平台部分,如大模型的评测体系或 langchain 平台等。
  5. 表现层:也就是应用层,是用户实际看到的地方。

在大模型的运作方面,对于核心的模型层(LLm 和多模态),其原理如下:

  • Encoder-only 模型通常适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。
  • Encoder-decoder 模型同时结合了 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是 google 的 T5。
  • Decoder-only 模型更擅长自然语言生成任务,如故事写作和博客生成,众多熟知的 AI 助手基本采用此结构。

大模型的特点在于:

  • 预训练数据非常大,往往来自互联网上的论文、代码、公开网页等,最先进的大模型一般用 TB 级别的数据进行预训练。
  • 参数非常多,如 Open 在 2020 年发布的 GPT-3 就已达到 170B 的参数。
Content generated by AI large model, please carefully verify (powered by aily)

References

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

首先为方便大家对大模型有一个整体的认知,我们先从大模型的整体架构着手,来看看大模型的组成是怎么样的。下面是我大致分的个层。从整体分层的角度来看,目前大模型整体架构可以分为以下几层:[heading3]1.基础层:为大模型提供硬件支撑,数据支持等[content]例如A100、数据服务器等等。[heading3]2.数据层[content]这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集[heading3]3.模型层:LLm或多模态模型[content]LLm这个大家应该都知道,large-language-model,也就是大语言模型,例如GPT,一般使用transformer算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与llm不同,用的是图文或声音等多模态的数据集[heading3]4.平台层:模型与应用间的平台部分[content]比如大模型的评测体系,或者langchain平台等,提供模型与应用间的组成部分[heading3]5.表现层:也就是应用层,用户实际看到的地方[content]这个就很好理解了,就不用我多作解释了吧

Ranger:【AI 大模型】非技术背景,一文读懂大模型(长文)

在上面我们分解的大模型架构中,其他几层其实对于产品同学而言都是很好理解的。但其核心的模型层,也就是LLm和多模态,我相信很多人还是对其感到迷惑。为什么我输入一段文字后,模型就能给生成对应的回复?为什么模型可以根据我输入的文字去生成视频和图片?这里我们不摆论文和学术性的讲解,我用尽可能通俗的方式来给大家讲解一下其原理。当然有兴趣的同学可以再深入的去学习。

从 0 到 1 了解大模型安全,看这篇就够了

encoder-only:这些模型通常适用于可以自然语言理解任务,例如分类和情感分析.最知名的代表模型是BERTencoder-decoder:此类模型同时结合了Transformer架构的encoder和decoder来理解和生成内容。该架构的一些用例包括翻译和摘要。encoder-decoder的代表是google的T5decoder-only:此类模型更擅长自然语言生成任务。典型使用包括故事写作和博客生成。这也是我们现在所熟知的众多AI助手的结构我们目前耳熟能详的AI助手基本都来自左侧的灰色分支,当然也包括ChatGPT。这些架构都是根据谷歌2017年发布的论文“attention is all you need”中提出的transformer衍生而来的,在transformer中,包括Encoder,Decoder两个结构目前的大型语言模型就是右侧只使用Decoder的Decoder-only架构的模型大模型又大在哪呢?第一,大模型的预训练数据非常大,这些数据往往来自于互联网上,包括论文,代码,以及可进行爬取的公开网页等等,一般来说,现在最先进的大模型一般都是用TB级别的数据进行预训练。第二,参数非常多,Open在2020年发布的GPT-3就已经达到170B的参数在GPT3中,模型可以根据用户输入的任务描述,或给出详细的例子,完成任务但这与我们熟知的ChatGPT仍然有着很大的差距,使用ChatGPT只需要像和人类一样对话,就可以完成任务。除了形式上的不同之外,还有一个更加重要的差距,那就是安全性上的差别。

Others are asking
大模型结构剖析
大模型的结构主要包括以下几个部分: 1. 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 2. 数据层:这里的数据层并非用于基层模型训练的数据基集,而是企业根据自身特性维护的垂域数据,分为静态的知识库和动态的三方数据集。 3. 模型层:包括 LLm(大语言模型)或多模态模型。LLm 一般使用 transformer 算法实现,如 GPT;多模态模型用于文生图、图生图等,训练数据为图文或声音等多模态数据集。 4. 平台层:是模型与应用间的平台部分,如大模型的评测体系或 langchain 平台等。 5. 表现层:也就是应用层,是用户实际看到的地方。 在大模型的运作方面,对于核心的模型层,即 LLm 和多模态模型,其原理如下: Encoderonly 模型通常适用于自然语言理解任务,如分类和情感分析,代表模型是 BERT。 Encoderdecoder 模型同时结合了 Transformer 架构的 encoder 和 decoder 来理解和生成内容,用例包括翻译和摘要,代表是 google 的 T5。 Decoderonly 模型更擅长自然语言生成任务,如故事写作和博客生成,众多熟知的 AI 助手基本都采用这种结构。 大模型的特点在于: 预训练数据非常大,往往来自互联网,包括论文、代码、公开网页等,最先进的大模型一般用 TB 级别的数据进行预训练。 参数非常多,如 Open 在 2020 年发布的 GPT3 就已达到 170B 的参数。
2025-01-06
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
结构化思维在AI办公里的应用
结构化思维在 AI 办公中有以下应用: 在 Model Context Protocol 托管平台中: 特色功能方面,Sequential Thinking 提供动态和反思性问题解决的结构化思维过程,适用于复杂问题分析和决策。 核心功能分类包括笔记管理工具(如 Simple Notes MCP Server、Bear MCP Server、Notion 集成)、AI 对话工具(如 Autonomous Coder Agent、OpenAI 兼容 API 集成)、Google Workspace 集成(如 Gmail 和 Google Calendar 集成、多账户管理、邮件搜索和撰写、日历事件管理)、学术研究工具(如 Semantic Scholar 集成、PubMed 搜索、arXiv 论文访问、IACR 密码学文献库访问)、AI 数据库管理(如 MySQL Server 集成、知识图谱记忆服务、DuckDB 集成、Airtable 集成)。 面对 AI 幻觉问题时,可使用结构化思考工具辅助判断,如决策矩阵用于面对多个选择时做出更理性的决策,检查清单用于执行复杂任务时确保每个步骤按计划完成,风险评估模型用于做重要决策时分析不同方案的风险并制定应对措施。 在让 AI 像人类一样思考方面,构建逻辑体感轮子,包括逻辑推理功能和内容抽象功能。内容抽象功能能够高效地组织内容,体现结构化思维,通过心智单元的抽象思维高效地组织复杂任务。
2025-04-14
结构化提示词
以下是关于结构化提示词的相关信息: 云中江树是 Prompt 提示词框架 LangGPT 的作者,并组建了 EmbraceAGI 学习社区。他早在 2023 年 3 月就提出了结构化构建提示词的方法,并发布在 Github,很快收藏破千。LangGPT 是 Language For GPT 的简称,中文名为结构化提示词,于 2023 年 5.4 青年节开源发布,成为 GitHub 开源社区全球趋势热榜前十项目,并撰写了学术论文开源发表。其提出的结构化提示词已被百度、智谱、字节、华为等国内主流大模型智能体平台使用,当前已发展成为国内最具影响力的高质量提示词工程师学习交流社群。您可以通过了解更多。 小七姐在其 Prompt 喂饭级系列教程小白学习指南(四)中提到,结构化 Prompt 的思想通俗来说就是像写文章一样写 Prompt。结构化编写 Prompt 本身算是提示词编写的进阶学习内容,这里为新手列举了一套(极简)基础的结构化编写 Prompt 的框架,例如:Role: Suno 结构提示词包含了众多流派和风格,如:爵士转折。
2025-04-12
即梦提示词的描述结构框架是什么
即梦提示词的描述结构框架主要包括以下方面: 1. 提示词基础架构: 主体/场景 场景描述 环境描述 艺术风格/媒介 调整句式和语序,避免主体物过多/复杂、主体物分散的句式描述。 避免模糊的术语表达,尽可能准确。 使用更加流畅准确的口语化措辞,避免过度文学化的叙述。 丰富、准确和完整的描述才能生成特定艺术风格、满足需求的视频。 2. 提示词与画面联想程度的说明: 以单帧图像为例介绍提示词与画面联想的关系。 基础词示例:玻璃桌上的咖啡杯,杯子外面写着单词 LOVE。 适度联想扩充:花园里(具体的位置描述)的透明(材质描述)玻璃桌上的咖啡杯,杯子外面写着单词 LOVE,周围满是盛开的鲜花(具体的位置描述/环境描述),和煦的阳光洒满整个花园(环境描述),Claude Monet(艺术家风格),印象派风格(艺术流派风格)。 联想关键点: 具体详实的位置描述/环境描述:笼统来讲就是在进行构图,可以帮助构建画面的基本呈现效果。 艺术风格描述:进一步提升效果和氛围,统一画面风格。 此外,结构化提示词框架还包括: 1. 标识符:如 、<> 等符号(、 也是),依次标识标题、变量,控制内容层级,用于标识层次结构。 2. 属性词:如 Role、Profile、Initialization 等等,包含语义,是对模块下内容的总结和提示,用于标识语义结构。 您可以把结构化提示词框架当做提示词的八股文标准,在不了解如何开始进行提示词设计的时候,当做一个通用的标准格式来使用。结构化提示词的概念在行业内应用广泛且成熟度较高,您可以在即刻、知识星球、知乎等很多地方看到优秀的类型案例。例如以下案例: 关于结构化提示词的理论感兴趣想要进一步了解更多信息的朋友,推荐大家阅读李继刚和云中江树的详细理论原文: 结构化语法提示词示例:可以在 AGI 的下列板块看到非常多优秀的结构化 Prompt 示例。
2025-03-23
如何用结构化提示词生成具体某一页PPT
以下是关于如何用结构化提示词生成具体某一页 PPT 的相关内容: 一、熊猫 Jay 的思路和指南 1. AI 生成 PPT 的主要思路 利用 AI 生成 PPT 大纲 培训文档助手提供核心提示词(仅供参考,可在此基础上丰富) 本章节结合 ChatGPT GPT4 模型生成大纲,也可利用其他 AIGC 工具 结构化提示词模版大多以 Markdown 语法构建,“”代表一级标题,“”代表二级标题,“”代表无序列表 输入关键信息生成大纲,包括针对不同人群的受众分析 2. 注意事项 提示词是利用 LangGPT 生成的基本提示词 语法的详细用法可自行了解 二、Kimi 的 15 款官方提示词 1. 【PPT 精炼】整理各种课程 PPT,输出结构明晰、易于理解内容文档 2. 【?爆款文案】生成高质量的爆款网络文案 3. 【?影剧推荐】根据喜好推荐影视,提供保姆级资源渠道 4. 【?影评达人】专业生成引人入胜、富有创意的电影评论 5. 【?职业导航】私人职业路径规划顾问,综合考虑个人特质、就业市场和发展前景 6. 【?营销策划】为产品或服务提供定制化营销活动策划 7. 【?面试模拟】私人面试 mock 伙伴,根据简历信息和求职岗位进行模拟面试 8. 【?宣传 slogan】快速生成抓人眼球的专业宣传口号 9. 【✍️期刊审稿】提前预知审稿人对文章的吐槽 10. 【?诗意创作】现代诗、五言/七言诗词信手拈来的诗歌创作助手 11. 【?推闻快写】专业微信公众号新闻小编,兼顾视觉排版和内容质量,生成吸睛内容 12. 【?要点凝练】长文本总结助手,能够总结用户给出的文本、生成摘要和大纲 13. 【?短剧脚本】创作定制化短视频脚本,包含拍摄要求和分镜细节 14. 【?美文排版】使用 Unicode 符号和 Emoji 表情符号优化文字排版,提供良好阅读体验 整理收录:小七姐 Prompt 星球:https://t.zsxq.com/15KhQ0RE7 三、甲木的方法 1. 让 Claude 帮做「古诗词卡片」 语文老师 PPT 配图有救了 主题+方向=符合诗词原意调性的古诗词名片 流程简单:输入 Prompt,用户输入主题、风格,AI 输出最终结果 获取提示词:第一版规定 AI 排版,固定输出;第二版释放 AI 创意,自由发挥,不受拘束 开源了提示词,可直接获取,关注、点赞、转发更佳 希望以上内容对您有所帮助。
2025-03-17
可视化分析的AI软件工具有哪些,可以生成线性结构、矩阵结构、框架结构、系统结构等
以下是一些可以用于生成线性结构、矩阵结构、框架结构、系统结构等可视化分析的 AI 软件工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建 ArchiMate 模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包含逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许用户创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。
2025-03-06
可视化分析的软件工具有哪些,可以生成线性结构、矩阵结构、框架结构、系统结构等
目前常见的可视化分析软件工具包括:Tableau、PowerBI、Excel、Google Data Studio、QlikView 等。但具体哪些工具能够生成您所提到的线性结构、矩阵结构、框架结构、系统结构等,可能需要您进一步查阅它们的详细功能介绍和实际使用体验来确定。
2025-03-06