直达「 通往AGI之路 」飞书知识库 →
首页/全部问答
如何使用钉钉中的知识库构建智能问答机器人
以下是使用钉钉中的知识库构建智能问答机器人的步骤: 1. 纯 GPT 大模型能力的微信聊天机器人搭建: 配置极简未来(Link.AI)平台:按照官方教程操作,教程地址为 https://docs.linkai.tech/platform/createapp ,学习补充可参考 https://docs.linkai.tech/platform/quickstart 。 教程中的应用是创建一个具体的 AI 问答机器人应用。 教程中的知识库是给绑定到指定问答机器人的资料数据集,让机器人基于这些内容回答问题。 知识库应用中的应用设定是给 AI 机器人的提示词内容或者人设,关于提示词可查看教程 https://waytoagi.feishu.cn/wiki/OqJQwzq2wi9EIOkFtFkclM24nSe 。 创建成功的 AI 应用,记住应用的应用 ID,用于后续对接微信聊天机器人。 生成 API Key 用于后续功能对接,地址为 https://linkai.tech/console/interface ,点击创建 API Key 并记住。 2. 用 Coze 免费打造自己的微信 AI 机器人: 设计 AI 机器人: 开始节点和结束节点会自动生成。 开始节点配置:输入变量名写“Question”,描述写“用户输入的问题”,变量类型选“String”。 知识库配置:将开始节点和知识库左侧节点连接,知识库输入引用开始节点的变量“Question”,点击“+”号选择之前创建好的知识库,将知识库右侧节点与结束节点左侧连起来。 结束节点配置:用于输出 AI 机器人的最终结果,回答格式设置为“您的问题:{{question}} 问题的答案:{{answer}}”,在输出变量那里定义“question”引用“开始节点的 Question”,“answer”引用“知识库节点的输出 output”,回答模式选择使用设定的内容直接回答。 试运行测试:点击右上角“试运行”,输入问题如“AIGC 课件”,点击右下角“运行”,查看工作流每一步的详细输入和输出。
2025-02-12
AI助理
以下是关于 AI 助理的相关内容: 工作流: 1. 起床时,让 AI 如“马云”“马化腾”为自己排 TODO 优先级,做私董会的脑暴。 2. 工作中有傲娇的 AI 小助理加油,其 Prompt 为要阳光、会撒娇/卖萌。 3. 重点事项 bot 方面,如内容创作,拆成 bot 团队组,包括选题、标题、框架、扩写等,并分 A/B 组两个 AIbot 互相改,要点是提供反常识、梗,学习喜欢的 UP 创作方法论。 4. 优化的 bot 包括内容选题 bot、短视频脚本 bot、数据分析 bot(GPT4)、网页 Perplexity 的资料库 bot 等。 5. 优化 1:Zion、ChatO 和自动化 AIAgent 分身,基于自身知识库的 bot。 6. 优化 2:将上述知识库、Prompt 资产,全部放入飞书的知识库+多维表单中维护,等待飞书的 AI 进化。 7. 备选:筛选过的 50 多个生产力 AI,放在工具库里,待命输出。 8. 未来:把整个公司业务全部搬入飞书中,外接 MJ、ChatBot 分身,以及咨询日程预约。 9. 可能:所有流量口 bot 也介入飞书,给予飞书做数据分析和内容引擎(目前需手动)。 10. 提醒自己,关注 AI 的同时,更要关注打交道的人、利益、状态和情绪。 GPTs: GPTs 是 OpenAI 推出的工具,允许用户量身打造自己的 AI 助理。可根据需求和偏好创建定制的 ChatGPT,如帮忙梳理电子邮件或提供创意灵感等。OpenAI 已推出几种现成的 GPTs 供使用,如「The Negotiator」、「Game Time」等。用户还可上传资料来自定义 GPTs,目前 GPTs 的使用仅限于 ChatGPT Plus 的用户。此外,OpenAI 推出了 GPT Store,是类似应用商店的平台,允许用户分享他们的 GPTs,甚至可能实施收益分润制度。 在网站上增加一个 AI 助手: 只需 4 步: 1. 创建大模型问答应用:通过百炼创建大模型应用,并获取调用大模型应用 API 的相关凭证。 2. 搭建示例网站:通过函数计算,快速搭建网站,模拟企业官网或其他站点。 3. 引入 AI 助手:通过修改几行代码,实现在网站中引入 AI 助手。 4. 增加私有知识:准备私有知识,让 AI 助手能回答原本无法准确回答的问题,更好应对客户咨询。
2025-02-12
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可以抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,如 PDF 等非结构化数据、SQL 等结构化数据以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. Output(输出):把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-02-12
AI搜索如何商业变现
AI 搜索的商业变现方式主要有以下几种: 1. 开放接口 API:将联网判断、意图识别、问题改写、信息源检索等步骤封装进黑盒,导出标准 API,让 ChatBot 类产品快速集成。开放 API 后,ChatBot 类应用只需修改 API 的域名前缀即可集成联网检索功能,这对 AI 搜索产品自身而言,增加了面向小 B 的营收途径。 2. 自定义信息源 Source:允许用户自定义信息源,满足个性化搜索需求。比如允许第三方创作者通过 Form 表单填写信息源的相关信息,调试通过后完成集成。 在 AI 时代,一些优秀的 AI 搜索产品如秘塔搜索(https://metaso.cn/)、Perplexity(https://www.perplexity.ai/?loginsource=oneTapHome)已展现出强大的搜索能力。同时,大型科技公司在 AI 搜索领域的动作也备受关注,如微软和苹果自愿放弃 OpenAI 董事会观察员席位,监管机构关注大型科技公司与初创企业的关系。人工智能驱动的搜索虽已开始出现成效,但也存在可靠性等问题。
2025-02-11
能生成流程图吗
生成流程图有以下几种方式: 1. 可视化拖拽: 代表产品有:(web 工具)、visio(本地软件)。 优点:直观。 缺点:需要花时间在布局上。 2. 语法渲染成图形: 代表语法:。 优点: 只用关注逻辑,文本即图形,方便直接嵌入在 markdown 文件中,比如在用 tyora、markdown 写文档时。 多样性,不同渲染引擎可渲染成多种样式。 缺点:有点抽象。 可以用 ChatGPT 来帮忙,通过自然语法转成图形语法,生成流程如下: 1. 确定制作目标。 2. 通过自然语法描述逻辑。 3. 在线校验测试是否成功。 此外,还有“超级微信机器人”可以通过 GPT4 tubro(128k)大模型、Dalle 3 绘画、智能 Bing&Google 搜索、谷歌搜图、GPT4v 识图、B站 等各大网站专用搜索、Generate MindMap 生成流程图来支撑其强大的能力,但使用微信机器人存在封号危险,且操作需依法合规,注意数据处理等问题。
2025-02-11
agent比较好用的应用是什么
以下是一些比较好用的 Agent 应用: 1. 构建平台: Coze:新一代一站式 AI Bot 开发平台,适用于构建各类问答 Bot,集成丰富插件工具拓展能力边界。 Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及部署到各种渠道。 文心智能体:百度推出的基于文心大模型的智能体平台,支持开发者打造产品能力。 MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行工作流。 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等场景,提供多种成熟模板。 钉钉 AI 超级助理:依托钉钉优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 2. 项目应用: AppAgent:让 AI 模仿人类在手机上操作 APP,对于模仿数据的反利用有不错应用场景,例如优化产品原型和 UE 交互。由腾讯和德州大学达拉斯分校的研究团开发,是基于大语言模型的多模态代理,能处理和理解多种信息,执行各种任务。 3. 设计范式: Reflection(反思):类似于 AI 的自我纠错和迭代,如让 AI 写代码并自我检查修改,反复优化。 Tool Use:大语言模型调用插件,拓展 LLM 的边界能力。 Planning:较为新颖有前景的方式。 Multiagent:较为新颖有前景的方式。
2025-02-11
你觉得小白从现在开始怎么学AI
对于小白如何学习 AI,以下是一些建议: 1. 了解 AI 基本概念: 阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(如机器学习、深度学习、自然语言处理等)及其联系。 浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始学习之旅: 在「」中找到为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程按照自己的节奏学习,有机会还可获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛,包括图像、音乐、视频等,可根据自身兴趣选择特定模块深入学习。 掌握提示词的技巧,其上手容易且实用。 4. 实践和尝试: 理论学习后,实践是巩固知识的关键,尝试使用各种产品做出作品。 在知识库中有很多实践后的作品和文章分享,欢迎实践后进行分享。 5. 体验 AI 产品: 与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获得对 AI 实际应用表现的第一手体验,激发对 AI 潜力的认识。 此外,还可以参考以下经验: 像《谁是人类》活动中的元子语一样,从 prompt 入手。3.5 刚出来时,对 AI 生成原理的理解加上写好 prompt,能提高问问题和解决问题的效率。 参考《雪梅 May 的 AI 学习日记》,学习模式可以是输入→模仿→自发创造。学习内容可去 waytoAGI 社区发现自己感兴趣的 AI 领域,学习最新内容。学习时间不必每天依次进行,有空时学习即可。学习状态很重要,保持良好状态能更好地学进去。学习资源多为免费开源。 总之,学习 AI 需要花费时间和精力,愿意做一些准备,坚持学习和实践。
2025-02-11
模型评测
以下是关于模型评测的相关内容: Llama2 模型评测:为了解其中文问答能力,筛选了具有代表性的中文问题进行提问,测试了 Meta 公开的 Llama27BChat 和 Llama213BChat 两个版本,未做任何微调和训练。测试问题涵盖通用知识、语言理解等八个类别,使用特定 Prompt,测试结果见相应文档。通过测试发现,该模型对于中文问答的对齐效果一般,基于中文数据的训练和微调十分必要。 LORA 模型训练超入门级教程中的模型测试:最后从炼丹炉内取最小值的模型为最佳,在 Output 文件夹下取出模型。可用 Stable Diffusion 的 xyz 图表脚本来测试不同权重下 Lora 的表现,包括选择 x 轴、y 轴类型等操作。 斯坦福发布大模型排行榜 AlpacaEval:相对于人工标注,全自动化的 AlpacaEval 经济成本和时间成本低。还探讨了什么评估数据能最好地区分模型,以及 AlpacaEval 支持两种模式的模型评估方式,评测过程分为三步,包括选择评估集、计算输出等,并建议使用特定的自动标注器。
2025-02-11
deepseek技术原理
DeepSeek 技术原理包括以下方面: 核心原理认知: AI 特性定位:支持文本/代码/数学公式混合输入,具有动态上下文(约 4K tokens 上下文窗口)和任务适应性(可切换创意生成/逻辑推理/数据分析模式)。 系统响应机制:采用意图识别+内容生成双通道理,自动检测 prompt 中的任务类型、输出格式、知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架: 可以套用框架指令,如四要素模板。 格式控制语法包括强制结构(使用```包裹格式要求)、占位符标记(用{{}}标注需填充内容)、优先级符号(>表示关键要求,!表示禁止项)。 进阶控制技巧: 思维链引导:分步标记法,如请逐步思考:1.问题分析→2.方案设计→3.风险评估;苏格拉底式追问,即在得出最终结论前,请先列举三个可能存在的认知偏差。 知识库调用:领域限定指令,如基于 2023 版中国药典,说明头孢类药物的配伍禁忌;文献引用模式,如以 Nature 2022 年发表的论文为参考,解释 CRISPRCas9 最新突破。 多模态输出。 此外,1 月 30 日社区动态速览中提到了 DeepSeek 相关的基本术语,阐述其省钱原因,包括高效硬件使用、创新训练方法、高效模型压缩、避免无效尝试等,还提及成本对比及创新蒸馏技术。接着从核心思想、技术实现方式(知识表示、温度调节)、训练过程(基本流程、关键点)、DeepSeek 的创新及有效性原因(信息压缩、概率分布学习、泛化能力)等方面详细讲述了蒸馏工作原理。1 月 26 日社区动态速览中提到 Deepseek 提示词框架的四大模块:任务目的(Purpose)、计划规则(Planning Rules)、格式规则(Format Rules)、输出说明(Output)。
2025-02-11
我是一个零基础的小白用户,可以给我制定一个周期为两个月的关于大模型知识的学习计划么
以下是为您制定的一个为期两个月的大模型知识学习计划: 第一个月: 第一周: 了解 AI 的基本概念,包括人工智能、机器学习、监督学习、无监督学习和强化学习等。 熟悉生成式 AI 生成的内容(AIGC)。 第二周: 深入学习大语言模型(LLM)的概念,区分其与其他生成式 AI 模型的不同。 研究 Transformer 模型,理解其基于自注意力机制处理序列数据的原理。 第三周: 学习不同类型的大模型架构,如 encoderonly、encoderdecoder 和 decoderonly 模型,并了解其应用场景。 了解大模型预训练数据的来源和规模。 第四周: 研究大模型的参数规模和其对性能的影响。 分析大模型在自然语言处理中的任务,如分类、情感分析、翻译和摘要等。 第二个月: 第一周: 比较不同大模型的特点和优势,如 GPT3 和 ChatGPT。 学习大模型在安全性方面的问题和挑战。 第二周: 探索大模型在实际应用中的案例,如文本生成、故事写作等。 了解大模型的发展趋势和未来方向。 第三周: 复习和巩固之前所学的大模型知识,查漏补缺。 尝试自己动手实践一些简单的大模型应用。 第四周: 总结所学的大模型知识,形成自己的理解和体系。 思考如何将大模型知识应用到实际工作或学习中。
2025-02-11