直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
transformer
Transformer 是一种深度学习模型,其核心思想是“Attention is all you need”。它主要用于处理序列数据,包括当下热门的 NLP 任务,完全基于注意力机制,不使用传统的循环神经网络(RNN)或卷积神经网络(CNN)的计算架构。 其工作流程如下: 1. 输入嵌入(Input Embeddings):将每个单词映射为一个向量,即单词嵌入(word embeddings)。例如“ I ”映射为一个 512 维的向量。 2. 位置编码(Positional Encodings):由于 Transformer 没有递归或卷积等捕获序列顺序的结构,所以需要给每个词位置加上位置编码,使模型知道词语的相对位置。 3. 编码器(Encoder):输入序列的嵌入向量和位置编码相加后被送入编码器层。编码器由多个相同的层组成,每层有两个核心部分: 多头注意力机制(MultiHead Attention):捕捉单词间的依赖关系。 前馈神经网络(FeedForward NN):对 attention 的结果进行进一步编码。 4. 解码器(Decoder):编码器的输出被送入解码器层。解码器也是由多个相同层组成,每层除了编码器组件外,还有一个额外的注意力模块,对编码器的输出序列建模依赖关系。 5. 输出嵌入(Output Embeddings):解码器最后一层的输出被映射为输出单词概率分布。例如生成单词“我”“是”等概率。 6. 生成(Generation):基于概率分布,以贪婪或 beam search 等解码策略生成完整的输出序列。 Transformer 模型用途广泛,可以用来翻译文本、写诗、写文章,甚至生成计算机代码。像 AlphaFold 2、GPT3、BERT、T5、Switch、Meena 等功能强大的模型都是建立在 Transformer 基础之上。如果想在机器学习,特别是自然语言处理方面与时俱进,至少要对 Transformer 有一定的了解。
2025-02-12
可以根据制度梳理流程的AI
以下是关于可以根据制度梳理流程的 AI 的相关信息: 基于 Agent 的创造者学习方向:以大语言模型为大脑,串联所有已有的工具和新造的 AI 工具,着重关注在创造能落地 AI 的 agent 应用。 Agent 工程(基础版)的迭代范式: 梳理流程:梳理工作流程 SOP,并拆解成多个单一「任务」和多个「任务执行流程」。 「任务」工具化:自动化每一个「任务」,形成一系列的小工具,让机器能完成每一个单一任务。 建立规划:串联工具,基于 agent 框架让 bot 来规划「任务执行流程」。 迭代优化:不停迭代优化「任务」工具和「任务执行流程」规划,造就能应对实际场景的 Agent。 关于 AI 在 DevOps 流程中的作用:AI 可以在 DevOps 中承担指定计划、拆分任务和调用工具的角色,但目前无法完全评定任务结果的正确性和质量。现阶段更靠谱的方式是让 AI 辅助完成部分任务(如画原型图、设计表结构、写自动化测试代码),但需要人类验证后才能进行下一步操作。完全依赖 AI 可能带来风险,如生产环境出错或被黑客恶意利用漏洞。 关于 ChatGPT 的记忆能力:ChatGPT 支持记忆功能,可通过摘要保存对话内容以延续角色和对话风格,但新开会话可能在高推理任务中效果更好。建议将角色设定和部分对话作为样例(fewshot)放入提示词中,以优化生成质量。 学习 GPT 的妙招:结合视频教程、文字转录和基础资料,通过 ChatGPT 讲解学习内容。更好的方式是角色反转,自己当老师,ChatGPT 当学生,通过提问互动和查漏补缺能有效提升学习效果。
2025-02-12
AI播客
以下是一些关于 AI 播客的信息: 一位投资人分享的用于深化人工智能/机器学习知识的工具/资源中,包含以下播客: No Priors podcast,由 Sarah Guo 和 Elad Gil 主持。 Robot Brains Podcast,由 Pieter Abbeel 主持。 Lex Fridman Podcast,由 Lex Fridman 主持。 The Gradient podcast,由 Daniel Bashir 主持。 Generally Intelligent,由 Kanjun Qiu 主持。 Last Week in AI 。 即刻用户拐子狼分享了用 AI 做播客笔记的工作流:用飞书妙计将音频转换为文字;找不到合适的封面图时,使用 Midjourney 制作;用 Raycast AI 初步检索关键词;用 Notion AI 总结全文内容。 NotebookLM 与 AI 播客结合,输入 url 可生成中文播客并一键发布小宇宙。关于 NotebookLM 爆火与 AI 播客,有人认为不是伪需求,或许是小部分群体的刚需,这种交互方式值得深挖。AI 播客降低了制作门槛,增加了内容多样性,但可能会造成劣币驱逐良币和信息茧房效应加剧。
2025-02-12
画图
以下是关于画图的相关内容: DALL·E 画图: 确认选题后可开始画图,推荐使用 DALL·E 或 MJ,可根据自身条件选择。 打开 GPT4,把对标的图丢进去,输入提示词如“如果我想用 dall 画出这样的图片,应该怎么画”,然后不断重复操作可画出 12 生肖的图。也可把描述词问出来,或直接让它把老鼠换成牛。 Stable Diffusion 画图: 使用【X/Y/Z plot】脚本做参数对比,将 X 轴设置为提示词相关性(取值范围 1 30,每次增加 5),Y 轴设置为重绘幅度(取值范围 0 1,每次增加 0.2)。 提示词相关性在 6 11 中间为最佳,大于 11 后画面可能崩坏。重绘幅度大小可控制生成图与原图的相似度。 绘图功能方面,如增加红色眼镜可使用红色画笔工具描绘并在提示词中增加“Red glasses”再点击生成;去掉衣服图案可用吸管吸取颜色后用画笔涂抹。 局部重绘可只改变涂抹部分,如涂抹人物头部并修改提示词可更换头部,手涂蒙版修改帽子部分并增加提示词可改变帽子。 DALL·E 3 画图: 可让 prompt 增加脑洞,选择 dalle 模式,复制 prompt,等待 GPT 回复,回复“画图”,继续输入想要的主题。 输入主题未确定风格时会有多种画风,若想固定可做限定,如写实照片风格、插画风格等,若想几张图风格统一,要说请统一 xx 风格。 此外,还提到了海报需求和版权相关的时间从 2233 年改到了 3233 年。
2025-02-12
ai是不是就是agi
AI(人工智能)并不等同于 AGI(通用人工智能)。AGI 被定义为能够像人类一样思考、学习和执行多种任务的人工智能系统。目前,AI 分为 ANI(弱人工智能)和 AGI,ANI 得到了巨大发展,比如智能音箱、网站搜索、自动驾驶、工厂与农场的应用等,但 AGI 还没有取得巨大进展。像 GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步,而早期的模型则不是这样。例如 GPT2 这样的早期语言模型实际上没有真正连贯回应的能力。OpenAI 原本计划发布的 Q的下一阶段,如 GPT7 因埃隆·马斯克的诉讼而被暂停,计划在 2027 年发布的 Q2025(GPT8)将实现完全的 AGI。ChatGPT 是由致力于 AGI 的公司 OpenAI 研发的一款 AI 技术驱动的 NLP 聊天工具,目前使用的是 GPT4 的 LLM。
2025-02-12
agi是什么?
AGI 即通用人工智能(Artificial General Intelligence),是指一种能够完成任何聪明人类所能完成的智力任务的人工智能。 目前,对于 AGI 这个定义较弱的术语,通常认为它是一种能够在许多领域内以人类水平应对日益复杂的问题的系统。例如,像 GPT3 及其半步后继者 GPT3.5 在某种程度上是朝着 AGI 迈出的巨大一步。OpenAI 致力于 AGI 的研究和发展,其开发的 ChatGPT 就是相关成果之一。同时,Sam Altman 认为确保人工通用智能(AGI)造福全人类是重要使命,AGI 可以被看作是人类进步脚手架上的另一个工具,有望带来经济增长和改善人们的生活。
2025-02-12
架设个人AI
以下是关于架设个人 AI 的相关信息: 大圣是一位 AI 超级个体打造者,主业为程序员,专注于 AI Agent、AI 编程以及 AI 写作领域,热爱写作与分享,擅长将复杂的 AI 知识通俗易懂地讲解。他计划一年内将自己的工作流全部 AI 化以实现十倍提效,目前的工作流主要包括阅读与写作、自媒体个人 IP、做公开课程与付费课程以及女儿日常陪伴。 用 Coze 免费打造自己的微信 AI 机器人的步骤: 设计 AI 机器人时,要确定功能范围。 编写【prompt】提示词,设定 Bot 的身份和目标。 创建【知识库】,整理“关键字”与“AI 相关资料链接”的对应关系并存储,创建知识库路径为个人空间知识库创建知识库,支持本地文档、在线数据、飞书文档、Notion 等类型,本次使用【本地文档】,按照操作指引上传文档、分段设置、确认数据处理,可在内容中加上特殊分割符“”便于自动切分数据,分段标识符号选择“自定义”,内容填“”,若内容有误可编辑或删除。 创建【工作流】,告诉 AI 机器人处理信息的流程,创建工作流路径为个人空间工作流创建工作流,工作流设计好后先试运行,无误后发布,若任务和逻辑复杂,可结合“节点”工具,如调用【大模型】总结分析知识库内容、调用【数据库】存储用户输入信息、调用【代码】处理复杂逻辑等,工作流不必复杂,能实现目的即可,所以在设计 Bot 前确定目的和功能范围很重要。
2025-02-12
如果我想做一个3000字的prompt,能产出8000字的八字批文解析,要求准确度比较高,能否实现
目前的技术水平较难直接实现您所描述的需求。生成准确且高质量的八字批文解析是一个复杂的任务,需要对八字命理有深入的理解和丰富的经验。虽然 AI 可以根据给定的提示生成文本,但要生成 8000 字且准确度较高的八字批文解析存在很大的挑战。这不仅涉及到对大量复杂命理知识的准确把握,还需要考虑到各种特殊情况和细微差别。但随着技术的不断发展,未来或许有可能在一定程度上接近您的期望。
2025-02-12
如何让纳米ai的Deepseek接口回答的更加精确
要让纳米 AI 的 DeepSeek 接口回答更加精确,可以从以下几个方面入手: 1. 强化学习策略:在“冷启动”阶段,通过少量人工精选的思维链数据进行初步引导,建立符合人类阅读习惯的推理表达范式。随后主要依靠强化学习,在奖励系统的反馈下(只对结果准确率与回答格式进行奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。其中准确率奖励用于评估 AI 提供的最终答案是否正确,格式奖励强制结构化输出,让模型把思考过程置于<think></think>标签之间,以便人类观察模型的推理过程。 2. 注重细节和语气:DeepSeek 在回答时能够还原特定的语气,如帝王的语气,且对历史细节熟悉,兼顾可读性。同时,输出充满具体而惊人的细节,行文的隐喻拿捏到位,高级且能准确传达含义。 3. 结合深度探索和联网搜索:这可能有助于获取更全面准确的信息,从而提高回答的精确度。
2025-02-12
deepseek提示词
以下是关于 DeepSeek 提示词的相关内容: 一、DeepSeekR1 提示词系统完全指南 1. 核心原理认知 AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 2. 基础指令框架 如果不知道如何表达,还是可以套用框架指令。 四要素模板示例。 格式控制语法:强制结构使用```包裹格式要求,占位符标记用{{}}标注需填充内容,优先级符号>表示关键要求,!表示禁止项。 3. 进阶控制技巧 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 二、Deepseek 时代提示词之关键诉求 1. 新旧提示法对比 传统方法(费力不讨好):像唠叨家长,模型忙于数要求清单,创造力被框死。 新型技巧(精准狙击):像对聪明助理打暗号,模型自动调用知识库中最相关数据,自主组织最佳结构。 三、一个提示词,让 DeepSeek 的能力更上一层楼?——HiDeepSeek 1. 效果对比:用 Coze 做了个小测试,可对比查看相关视频。 2. 如何使用 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 3. 设计思路 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不稳定)。 4. 完整提示词:v 1.3 5. 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-02-12