直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
大模型涉及到芯片包括哪些
大模型涉及到的芯片包括以下几种: 英伟达的Blackwell超级芯片:如GB200 NVL72,将36个Grace CPU和72个Blackwell GPU集成到一个液冷机柜中,可实现总计720 petaflops的AI训练性能,或是1,440 petaflops(1.4 exaflops)的推理性能。 英伟达的DGX B200:包括8个Blackwell GPU和2个第五代Intel Xeon处理器,包含FP4精度功能,提供高达144 petaflops的AI性能、1.4TB的GPU内存和64TB/s的内存带宽。 同时需要注意的是,在数据、算力、算法三要素中,算力是基础,也是大模型竞争力,但国产芯片在软件适配度、稳定性方面仍显不足。国产芯片与英伟达显卡之间的解耦能力较弱,未来可能会逐步用国产芯片去做百亿甚至更大体量的模型训练,但算力的累积依然是重要挑战。目前,AI大模型算力主要在训练、推理两个部分,其中成本最高部分是前期的模型训练,大部分采用智能计算中心、自费买英伟达A800/H800显卡组成服务器运行、或者是用价格更为实惠的服务器云来训练。而推理部分算力需求较少、价格不高,大部分模型应用都需要同时建立公有云、私有云两种混合模式,而且需要购买一定的云服务,以更好做大模型应用。
2025-02-11
大模型相关的硬件知识请介绍一下
以下是关于大模型相关硬件的知识介绍: 运行大模型需要较高的机器配置,不同类型的大模型有不同的硬件要求。 生成文字大模型: 最低配置:8G RAM + 4G VRAM 建议配置:16G RAM + 8G VRAM 理想配置:32G RAM + 24G VRAM(如果要跑 GPT3.5 差不多性能的大模型) 生成图片大模型(比如跑 SD): 最低配置:16G RAM + 4G VRAM 建议配置:32G RAM + 12G VRAM 生成音频大模型: 最低配置:8G VRAM 建议配置:24G VRAM 需要注意的是,最低配置可能运行速度非常慢。 大模型的整体架构可以分为以下几层: 1. 基础层:为大模型提供硬件支撑,数据支持等,例如 A100、数据服务器等等。 2. 数据层:这里的数据层指的不是用于基层模型训练的数据基集,而是企业根据自己的特性,维护的垂域数据。分为静态的知识库,和动态的三方数据集。 3. 模型层:包括 LLm 或多模态模型。LLm 即 largelanguagemodel 大语言模型,例如 GPT,一般使用 transformer 算法来实现。多模态模型即市面上的文生图、图生图等的模型,训练所用的数据与 llm 不同,用的是图文或声音等多模态的数据集。 4. 平台层:模型与应用间的平台部分,比如大模型的评测体系,或者 langchain 平台等,提供模型与应用间的组成部分。 5. 表现层:也就是应用层,是用户实际看到的地方。 通俗来讲,大模型就是输入大量语料,来让计算机获得类似人类的“思考”能力,使之能够理解自然语言,能够进行『文本生成』、『推理问答』、『对话』、『文档摘要』等工作。其训练和使用过程可以类比为“上学参加工作”: 1. 找学校:训练 LLM 需要大量的计算,因此 GPU 更合适,只有购买得起大量 GPU 的才有资本训练自己的大模型。 2. 确定教材:大模型需要的数据量特别多,几千亿序列(Token)的输入基本是标配。 3. 找老师:即用什么样的算法讲述“书本”中的内容,让大模型能够更好理解 Token 之间的关系。 4. 就业指导:学完书本中的知识后,为了让大模型能够更好胜任某一行业,需要进行微调(fine tuning)指导。 5. 搬砖:就业指导完成后,下面就要正式干活了,比如进行一次翻译、问答等,在大模型里称之为推导(infer)。 在 LLM 中,Token 被视为模型处理和生成的文本单位。它们可以代表单个字符、单词、子单词,甚至更大的语言单位,具体取决于所使用的分词方法(Tokenization)。Token 是原始文本数据与 LLM 可以使用的数字表示之间的桥梁。在将输入进行分词时,会对其进行数字化,形成一个词汇表。
2025-02-11
文生图人物一致性
以下是关于文生图人物一致性的相关内容: 在使用 ControlNet 进行文生图时,首先进入文生图界面填写提示词生成一张图。然后将图片拖入 ControlNet 中,预处理器选择 reference only,控制模型选择“均衡”,保真度数值越高对图片的参考越强。在没有明确指向性提示词的情况下,人物形象能保持一致,但表情、动作、服装会有随机不同程度的变化。可以通过添加关键词来给人物换装、更改服装和表情、更改动作和表情、更改姿态、环境和表情等,例如添加“红裙子”“黑色校服、哭泣”“抱手、生气”“在花丛中奔跑、开心”“红色棒球帽,时尚卫衣,在商场逛街”。通过一系列测试,这个功能在绘制系列插画、漫画、小说插图等工作时,能保持主角形象的统一,也能根据情况实时调整,后期配合 lora 潜力巨大。 另外,在 PIKA1.0 新模型中,人的一致性已经逆天,再加上其强大的语义理解和大幅度的动作,在文生图方面表现出色。
2025-02-11
写策划方案什么ai工具最好用
以下是一些适用于写策划方案的 AI 工具: 用户研究、反馈分析:Kraftful(kraftful.com) 脑图:Whimsical(whimsical.com/aimindmaps)、Xmind(https://xmind.ai) 画原型:Uizard(uizard.io/autodesigner/) 项目管理:Taskade(taskade.com) 写邮件:Hypertype(hypertype.co) 会议信息:AskFred(fireflies.ai/apps) 团队知识库:Sense(senseapp.ai) 需求文档:WriteMyPRD(writemyprd.com) 敏捷开发助理:Standuply(standuply.com) 数据决策:Ellie AI(ellie.ai) 企业自动化:Moveworks(moveworks.com) 此外,还有以下相关的产品信息: 摊位信息:包括乐易科学院(通过 AI 技术讲解国学和传统文化)、AIGC 策划程序美术(3AI 简称 3A 游戏)应用独立游戏开发、AI 人像摄影绘画等。 AIGC Weekly32 中的产品推荐: AutogenAI(用于投标和标书编写的 AI 工具,https://autogenai.com) Deepen(AI 心理健康治疗和护理工具,https://thedeepen.app/) Dezee(AI 大杂烩工具,https://www.dezee.ai/) GluAI(应用内的游戏化营销组件,https://www.customerglu.com/ai)
2025-02-11
图生图
以下是关于图生图的相关知识: 概念与功能说明: 首页模型\\帖子\\排行榜:展示了其他用户生成的模型和图片,不同模型有 checkpoint 和 lora 等标签,还有 SDXL 新模型的标签。点击可查看模型详细信息,下方是返图区。 基础模型(checkpoint):生图必需,任何生图操作都要先选定。 lora:低阶自适应模型,类似 checkpoint 的小插件,可有可无,常用于控制细节,旁边的数值是权重。 ControlNet:控制图片中特定图像,如人物姿态、生成特定文字等,属于高阶技能。 VAE:编码器,类似滤镜,可调整生图饱和度,一般选择 840000 这个。 Prompt 提示词:想要 AI 生成的内容。 负向提示词(Negative Prompt):想要 AI 避免产生的内容。 图生图的作用: 允许用户上传一张图像,并基于该图像生成新的视觉内容。 如何使用图生图: 在 prompt 输入框下,点击“图生图”上传本地文件。 在无限画布中,于图片功能区进行选择。 调整“图生图”功能区参数: 参考程度:更像原图,小幅度修改基底图像,有限增加元素;更创意,大幅度修改基底图像,可搭配增强模型加入更多元素;自定义,可自定义修改重绘幅度。 增加参考纬度:点击添加按钮,会自动应用并打开“生成器”的图片参考功能。 替换图像:鼠标滑动到图像,点击“选择参考图”即可重新选择图片。 转换提示词:反推参考图信息填入提示词框中。 同步生图尺寸:同步参考图尺寸到“生成器”的生图尺寸中。 FLUX 之 PULID 换脸中的图生图: 如果无法科学上网,可以注册 bizyair 拿到 key,在 comfyui 中安装最新节点,没有独立显卡的笔记本也可体验。准备两张图,如神仙姐姐的图和要换脸的图,用 joy 反推,把文字贴到 pulid 工作流里,也可合在一个工作流里。相关工作流可通过网盘获取。
2025-02-11
如何理解Deepseek认知启发式的设计理念
DeepSeek 认知启发式的设计理念主要包括以下几个方面: 1. 将 Agent 封装成 Prompt,并将 Prompt 储存在文件中,以保证最低成本的人人可用,同时减轻调试负担。 2. 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 3. 在模型默认能力的基础上优化输出质量,通过思考减轻 AI 味,增加可读性。 4. 参照大模型的 temperature 设计了阈值系统,但可能形式大于实质,后续可能根据反馈修改。 5. 用 XML 来进行更为规范的设定,而非 Lisp(有难度)和 Markdown(运行不太稳定)。 此外,DeepSeek 具有以下特点: AI 特性定位:支持多模态理解,包括文本/代码/数学公式混合输入;具备动态上下文,即对话式连续记忆(约 4K tokens 上下文窗口);具有任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 在提示词系统方面: 基础指令框架包括四要素模板、格式控制语法等。格式控制语法中,强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号中>表示关键要求,!表示禁止项。 进阶控制技巧包含思维链引导、知识库调用、多模态输出。思维链引导中有分步标记法和苏格拉底式追问;知识库调用中有领域限定指令和文献引用模式。 HiDeepSeek 是为解决使用 AI 工具时答案思考过程不可见的问题而设计的工具,其核心目标是让 AI 像人类交流时那样展示思考过程,在技术层面通过特别规则实现,例如要求 AI 思考像人类一样自然。它能帮助用户更好地理解和使用 AI,让 AI 成为更好的助手。
2025-02-11
AI领域,传统机器学习,nlp,深度学习,大语言模型,rag,agent,请生成一张让普通人能看懂的AI领域概念图
以下是为您生成的 AI 领域概念图的相关解释: 人工智能(AI):一种目标,让机器展现智慧。 生成式人工智能(GenAI):一种目标,让机器产生复杂有结构的内容。 机器学习:一种手段,让机器自动从资料中找到公式,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律,如聚类。 强化学习:从反馈里学习,最大化奖励或最小化损失。 深度学习:一种更厉害的手段,参照人脑有神经网络和神经元(因为有很多层所以叫深度),神经网络可用于多种学习方式。 大语言模型(LLM):是一类具有大量参数的“深度学习”模型。对于生成式 AI,生成图像的扩散模型不是大语言模型;对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 AIGC(Artificial Intelligence Generated Content):利用人工智能技术生成内容的新型生产方式,包括文本、图像、音频和视频等内容。 ChatGPT:一个应用实例,通过投喂大量资料预训练后,会通过聊天玩“文字接龙游戏”。它是美国 OpenAI 公司开发的一款基于大型语言模型(LLM)的对话机器人,能够根据用户的输入生成连贯且相关的文本回复。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,比 RNN 更适合处理文本的长距离依赖性。
2025-02-11
请把机器学习相关和大模型相关的知识点形成一个结构化的知识树,包括但是不限于算法、框架、工具、注意力机制等
以下是一个关于机器学习和大模型的结构化知识树: 一、基础数学知识 1. 线性代数 2. 概率论 3. 优化理论 二、机器学习基础 1. 监督学习 分类 回归 2. 无监督学习 聚类 3. 强化学习 三、深度学习 1. 神经网络 卷积网络 递归网络 注意力机制 2. Transformer 模型 四、自然语言处理 1. 语言模型 2. 文本分类 3. 机器翻译 五、计算机视觉 1. 图像分类 2. 目标检测 3. 语义分割 六、前沿领域 1. 大模型 2. 多模态 AI 3. 自监督学习 4. 小样本学习 七、工具与框架 1. TensorFlow 2. PyTorch 八、应用领域 1. 自然语言处理 2. 计算机视觉 3. 推荐系统 九、数据处理 1. 数据采集 2. 数据清洗 3. 特征工程 十、模型部署 1. 模型优化 2. 模型服务 十一、科研实践 1. 论文阅读 2. 模型实现 3. 实验设计 十二、行业实践 1. 项目实战 2. 案例分析
2025-02-11
扣子智能体搭建
扣子是字节跳动旗下的 AI 应用开发平台,搭建扣子智能体的门槛较低,无论有无编程基础均可操作。以下是关于扣子智能体搭建的相关信息: 菠萝作词家智能体:是专为音乐创作设计的辅助工具,能理解分析用户输入的提示词、情感基调、歌曲主题等信息并生成歌词。创建时需想一个名字,写一段详细介绍,然后点击确认即可。 竖起耳朵听智能体:创建需三步,先起一个名称,再写一段简单介绍,最后使用 AI 创建一个头像。 多模态资讯的跨平台推送智能体:可根据个人需求抓取、整理资讯并推送到多个平台。其视频演示地址为:https://www.bilibili.com/video/BV1RLaGeAE7Z/?vd_source=baeb68724c9458d179387d4bce43931c ;体验地址为:https://www.coze.cn/store/bot/7386884942153957391?panel=1&bid=6d2j6kkj04019 。 一般来说,创建扣子智能体首先要想一个智能体的名字,然后写一段该智能体的介绍(越详细越好,会根据介绍智能生成符合主题的图标),最后完成相关操作(如确认、创建头像等),一个新的智能体就诞生了。
2025-02-11
chatgpt
ChatGPT 是一种基于 GPT 架构的人工智能模型,由 OpenAI 开发。 它的工作原理是:从网络、书籍等来源获取大量人类创作的文本样本,然后训练神经网络生成“类似”的文本。具体来说,它能够从“提示”开始,继续生成“类似于训练内容”的文本。其神经网络由大量简单元素组成,基本操作是为每个新单词(或单词部分)生成“输入”,然后将其“通过其元素”(无循环等)。 ChatGPT 在生成文本方面表现出色,结果通常接近人类所产生的。但它也有局限性,例如在训练和计算能力方面,与大脑和当前计算机存在差异。目前,ChatGPT 内部没有“循环”或“重新计算数据”,这限制了其计算能力。 ChatGPT 目前官网有两个版本,GPT3.5 是免费版,拥有账号即可使用,但智能程度不如 GPT4 高,且无法使用 DALL.E3 等插件。GPT4 的 PLUS 套餐收费标准为 20 美金一个月,还有团队版和企业版,功能更多、限制更少,但费用更贵,一般推荐使用 PLUS 套餐。 在注册 ChatGPT 账号前,建议先注册一个谷歌账号,因为国外很多软件支持谷歌账号一键登录,注册谷歌账号支持国内手机号码和国内邮箱验证,过程简单。
2025-02-11