Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

多Agent之间的调用教程

Answer

以下是关于多 Agent 之间调用的教程:

《执笔者》中的多 Agent 模式操作步骤

  1. 多 agent 模式切换:在 bot 编排页面点选多 agent 模式,页面将自动切换为多 agent 调试状态,相比单 agent,多了中间的 agent 连接区。
  2. 添加合适节点:有两种方式选择节点,即使用已发布的 bot 或创建新的 agent,按需选取,添加的 agent 直接连接在默认的总管 agent(“执笔者”)后面,无结束节点。
  3. 添加合适的 prompt:在多 agent 模式下,为每个 agent 填写合适的 prompt,外围的人设填写该 bot 的主要功能,内部的 bot 填写各个 bot/agent 的应用场景。
  4. 调试与美化:经过以上三步,一个多 agent 的 bot 基本搭建完成,之后是漫长的调试过程,若输出与设想有差异,可不断调整外围和内部 bot 的提示词,提升命中率,优化交互。

沉浸式单机剧本杀 Bot 中的多 Agent 协作: 单机剧本杀 Bot 由多个 agent 共同协作完成,主要包括:

  1. 主持人 Agent:通过对话引导玩家,通过提示和发放道具帮助玩家推进情节,像全知全能的主持人帮助玩家在游戏过程中前进。
  2. 条件判断 Agent:负责解析玩家输入,判断是否达到触发下一情节的条件,若条件符合,把相应情节传递给主持人 Agent 继续讲解。
  3. 情节向量化处理与索引构建:对剧本内容进行向量化处理,自动分段并构建索引,使主持人和判断 Agent 能迅速、准确地检索所需内容,让剧情展开更流畅。

关于 Multi-Agent 的介绍: 随着大型语言模型(LLM)的出现,以 LLM 为核心构建的 Agent 系统近期受到广泛关注。Agent 系统旨在利用 LLM 的归纳推理能力,为不同的 Agent 分配角色和任务信息,并配备相应的工具插件,以完成复杂的任务。 目前常见框架主要集中在单 Agent 场景下,其核心在于 LLM 与工具的协同配合,LLM 根据用户任务的理解,推理出需要调用的工具,并根据调用结果向用户提供反馈,在任务完成过程中,Agent 可能需要与用户进行多轮交互。 同时,越来越多的 Agent 框架开始关注多 Agent 场景,为完成任务,为不同的 Agent 指定不同角色,并通过 Agent 之间的协作来完成复杂任务,与单 Agent 相比,在任务完成过程中,与用户的交互可能会减少一些。

Content generated by AI large model, please carefully verify (powered by aily)

References

《执笔者》:基于多Agent模式的全能写手

1.多agent模式切换在bot编排页面点选多agent模式,页面将会自动切换为多agent调式状态,相比单agent,主要是多了中间一块的agent连接区。切换多agent后的默认页面1.添加合适节点节点这里有两种方式可以选择,用已发布的bot,或者创建一个新的agent,大家按需选取。添加的agent直接连接在默认的总管agent(“执笔者”)后面即可,无结束节点。1.添加合适的prompt在多agent模式下,我们需要为每个agent填写合适的prompt。外围的人设填写该bot的主要功能,内部的bot填写各个bot/agent的应用场景。1.调试与美化经过以上简单三步,一个多agent的bot就基本搭建完成,接下来就是漫长的调试过程,如果输出与自己设想有差异,可以不断调整外围和内部bot的提示词,提升命中率,优化交互。

沉浸式单机剧本杀Bot

我们的单机剧本杀Bot由多个agent共同协作完成,其中主要包括:1.主持人Agent:这个Agent主要通过对话引导玩家,通过提示和发放道具帮助玩家推进情节。它就像一个全知全能的主持人,帮助玩家在游戏过程中不断前进。2.条件判断Agent:负责解析玩家输入,判断是否达到了触发下一情节的条件。如果条件符合,它会把相应的情节传递给主持人Agent继续讲解。3.情节向量化处理与索引构建:通过对剧本内容进行向量化处理,我们将其自动分段,并构建索引。这样主持人和判断Agent可以迅速、准确地检索所需内容,使得剧情展开更加流畅。

问:Multi-Agent是什么

随着大型语言模型(LLM)的出现,以LLM为核心构建的Agent系统近期受到了广泛关注。Agent系统旨在利用LLM的归纳推理能力,为不同的Agent分配角色和任务信息,并配备相应的工具插件,以完成复杂的任务。目前,更常见的框架主要集中在单Agent场景下。单Agent的核心在于LLM与工具的协同配合。LLM根据用户任务的理解,推理出需要调用的工具,并根据调用结果向用户提供反馈。在任务完成过程中,Agent可能需要与用户进行多轮交互。与此同时,越来越多的Agent框架开始关注多Agent场景。为了完成任务,多Agent会为不同的Agent指定不同的角色,并通过Agent之间的协作来完成复杂的任务。与单Agent相比,在任务完成过程中,与用户的交互可能会减少一些。

Others are asking
AI Agents(智能体)
AI 智能体(Agents)是人工智能领域中一个重要的概念: 1. 从 AGI 的发展等级来看,智能体不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 2. 作为大模型的主要发展方向之一,智能体中间的“智能体”其实就是大模型(LLM)。通过为 LLM 增加工具、记忆、行动、规划这四个能力来实现。目前行业里主要用到的是 langchain 框架,它把 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。 3. 从智能体的起源探究来看,心灵社会理论认为智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,每个层次由多个 Agent 负责,每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务。同时存在专家 Agent、管理 Agent、学习 Agent 等不同类型的 Agent 及其相应功能。从达特茅斯会议开始讨论人工智能,到马文·明斯基引入“Agent”概念,“AI”和“Agent”就彻底聚齐,往后被称之为 AI Agent。
2025-04-15
B端AI Agent
以下是关于 B 端 AI Agent 的相关知识: 一、概念定义 1. 智能体(Agent)简单理解就是 AI 机器人小助手,参照移动互联网,类似 APP 应用的概念。随着 ChatGPT 与 AI 概念的爆火,出现了很多相关新名词,如 bot 和 GPTs 等。AI 大模型是技术,面向用户提供服务的是产品,因此很多公司关注 AI 应用层的产品机会。 C 端案例:如社交方向,用户注册后先捏一个自己的 Agent,然后让其与他人的 Agent 聊天,两个 Agent 聊到一起后真人再介入;还有借 Onlyfans 入局打造个性化聊天的创业公司。 B 端案例:字节扣子和腾讯元器若为面向普通人的低代码平台,类似 APP 时代的个人开发者,那么帮助 B 端商家搭建 Agent 就类似 APP 时代专业做 APP 的。 2. 智能体开发平台:最早接触到的扣子 Coze 是通过一篇科技报道,如 2 月 1 日,字节正式推出 AI 聊天机器人构建平台 Coze 的国内版“扣子”,主要用于开发下一代 AI 聊天机器人。国内还有很多智能体开发平台,如 Dify.AI,但个人较常用的是扣子,所以常对比字节扣子和腾讯元器。 3. 关注智能体的原因:目前 AI Agent 的概念在市场上未达成共识,存在被滥用现象。AI Agent 指的是一种智能代理系统,接近人类大脑,可形成记忆、达成行动规划、自动交互、主动预测。其应用具有个性化、自主完成任务、多 Agent 协作等特点。目前 AI Agent 应用大多集中在 2B 场景,面向个人消费者的产品少,一方面是高度智能化的 Agent 能力需打磨,概念落地有距离;另一方面是 AI 和娱乐消费诉求结合少,主要带来生产方式和效率变革,个人消费者方向目前只看到“私人助理”场景。
2025-04-15
有关 ai agent 的科普文章
以下是为您提供的关于 AI Agent 的科普内容: AI Agent 是一个融合了多学科精髓的综合实体,包括语言学、心理学、神经学、逻辑学、社会科学和计算机科学等。它不仅有实体形态,还有丰富的概念形态,并具备许多人类特有的属性。 目前,关于 AI Agent 存在一些情况。例如,网络上对其的介绍往往晦涩难懂,让人感觉神秘莫测,其自主性、学习能力、推理能力等核心概念,以及如何规划和执行任务、理解并处理信息等方面,都像是笼罩在一层神秘面纱之下。 另外,以国与国之间的外交为例来解释相关协议。假设每个 AI 智能体(Agent)就是一个小国家,它们各自有自己的语言和规矩。各国大使馆试图互相沟通、做生意、交换情报,但现实中存在诸多问题,如协议各异、要求不同等。 如果您想了解更多关于 AI Agent 的详细内容,可访问: 。
2025-04-15
,AI agent 发展趋势,技术状态,商业模式
以下是关于 AI Agent 的发展趋势、技术状态和商业模式的相关信息: 发展趋势: 2024 年内,办公场景“AI 助手”开始有良好使用体验,实时生成的内容开始在社交媒体内容、广告中出现。 2025 2027 年,接近 AGI 的技术出现,人与 AI 配合的工作方式成为常态,很多日常决策开始由 AI 来执行。 技术状态: 目标实现基于 ReAct、SFT、RAG、强化学习等实现自主规划能力的 AI Agent,构建具备认知、决策智能的 Agent 智能体框架。 专注文本/多模态大模型、AI Agent 技术创新与应用。 商业模式: 依据不同类型销售市场的特点,结合一站式 AI 搭建平台将销售部署的产品化和模版化,让企业更容易落地和应用 AI 能力。 销售智能体 Blurr.AI 占位交易环节,解决 2B 销售获客的痛点,且具有向前后端环节延展的势能。
2025-04-13
AGENT
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,既可以是软件程序,也可以是硬件设备。 智能体具有以下特点: 1. 自主系统:通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。 2. 关键组成部分: 规划:将大型任务分解为更小、可管理的子目标,有效处理复杂任务。 反思和完善:对过去的行为进行自我批评和反思,从错误中吸取教训,完善未来步骤,提高最终结果质量。 记忆:包括短期记忆,用于所有的上下文学习;长期记忆,通过利用外部向量存储和快速检索实现长时间保留和回忆信息。 工具使用:学习调用外部 API 来获取模型权重中缺失的额外信息。 以下是一些与智能体相关的资源目录: 关于 2025AGENT 智能体全球创作大赛: 1. 报名:通过→首页的“立即参赛”按钮进入报名页面,填写相关信息并提交即可,且参赛完全免费。 2. 提交作品:在本网站直接提交,若采用 flowith 搭建了 Agent 可以在微博、小红书、即刻平台发布,并@Flowith 官方,可获得额外会员奖励。 3. 奖项设置:设有金、银、铜奖和多个单项奖,获奖后将获得组委会颁发的奖金和证书,需保证联系方式准确以便联系。 4. 知识产权归属:参赛作品的知识产权归参赛者所有,但组委会有权在宣传和展示中使用参赛作品。
2025-04-12
AI workflow在企业中是否比Agent应用价值和场景更多
AI workflow 和 Agent 在企业中的应用价值和场景各有特点。 Agentic Workflows 具有以下优势: 1. 灵活性、适应性和可定制性:能够根据任务难度进行调整和演变,通过组合不同模式实现定制,在需求和复杂性增长时进行迭代升级。 2. 在复杂任务上的性能提升:将复杂任务分解为更小、可管理的步骤,显著优于确定性的零样本方法。 3. 自我纠正和持续学习:能够评估自身行为,完善策略,从过去经验中学习,在每次迭代中变得更有效和个性化。 4. 操作效率和可扩展性:可以高精度自动化重复任务,减少人工操作和运营成本,还能轻松扩展。 Agentic Workflow 的应用场景包括原子设计模式的组合、与人类反馈循环集成等。例如,Agentic RAG 在检索增强生成流程中引入了一个或多个 AI Agents,在规划阶段可进行查询分解等操作,还能评估数据和响应的相关性和准确性。 一般来说,Workflow 是一系列旨在完成特定任务或目标的相互连接的步骤。最简单的工作流是确定性的,遵循预定义步骤序列。有些工作流利用大模型或其他 AI 技术,分为 Agentic 和非 Agentic 两类。非 Agentic 工作流中,大模型根据指令生成输出。Agentic Workflow 是由单个或几个 AI Agents 动态执行的一系列连接步骤,被授予权限收集数据、执行任务并做出决策,利用 Agents 的核心组件将传统工作流转变为响应式、自适应和自我进化的过程。 综上所述,不能简单地说 AI workflow 在企业中比 Agent 应用价值和场景更多,这取决于企业的具体需求和任务特点。
2025-04-09
deepseek官方教程
以下是关于 DeepSeek 的官方教程相关信息: 火山方舟 DeepSeek 申请免费额度教程,包含多种 API 使用方式,如飞书多维表格调用、Coze 智能体调用、浏览器插件调用。可以使用邀请码 D3H5G9QA,通过邀请链接 https://www.volcengine.com/activity/deepseek?utm_term=202502dsinvite&ac=DSASUQY5&rc=D3H5G9QA 邀请可拿 3000 万 tokens,畅享 671B DeepSeek R1,活动截止至北京时间 20250218 23:59:59。同时,火山方舟大模型服务平台的模型服务计费文档有更新,DeepSeekR1、V3 模型分别提供了 50 万免费额度和 API 半价活动。 有关于一线教师的 AI 需求与高效工具推荐,如让模型创作诗歌、生成宣传标语、提示库(https://apidocs.deepseek.com/zhcn/promptlibrary)、代码解释、内容分类、角色扮演(自定义人设)、散文写作、文案大纲生成、模型提示词生成等。 2 月 14 日的社区动态中,有《突破 DeepSeek R1 能力天花板,火山引擎扣子+飞书一站式企业解决方案》《羊毛快薅|字节火山上线了 DeepSeek 系列模型并悄悄更改了模型服务价格...》等内容,还附上了飞书多维表格、Coze 的接入使用方法等。此外,还有关于 DeepSeek 关键 9 篇论文及创新点的讲解,以及 DeepSeek 官方发布的 R1 模型推荐设置。
2025-04-15
Mcp教程
以下是关于 MCP 教程的相关内容: 资源链接: 什么是 MCP 以及为什么要用它: Model Context Protocol(模型上下文协议),简称 MCP,是由 Anthropic 公司提出的一个开放标准,旨在解决 AI 模型与外部数据源和工具之间的连接问题。 MCP 就像是 AI 世界的“USBC 接口”,它提供了一种标准化的方式,让 AI 应用能够轻松连接到各种数据源和工具,不需要为每个新连接重新开发接口。 MCP 解决的主要问题包括: 碎片化集成:以前每个 AI 应用都需要单独开发与各种数据源的连接。 重复工作:不同团队重复构建相似的集成方案。 “N 乘 M 问题”:当有 N 个 AI 客户端需要连接 M 个数据源时,可能需要 N×M 个自定义集成。 希望这篇教程能帮助您了解 MCP 的基础知识,并开始构建自己的 MCP 服务器!随着实践的深入,您会发现 MCP 为 AI 应用与数据源及工具的集成提供了简单而强大的解决方案。 本篇内容由 Genspark 制作 https://www.genspark.ai/autopilotagent_viewer?id=c10e49b3228d4f65be347ab34777aaf8
2025-04-15
coze 教程
以下是为您提供的 Coze 教程相关信息: 一泽 Eze 的教程:可能是全网最好的 Coze 教程之一,一次性带您入门 Coze 工作流。即使是非技术出身的爱好者也能上手跟学,一站式学会 AI Agent 从设计到落地的全流程方法论。阅读指南:长文预警,请视情况收藏保存。核心看点包括通过实际案例逐步演示用 Coze 工作流构建能稳定按模板要求生成结构化内容的 AI Agent、开源 AI Agent 的设计到落地的全过程思路、10+项常用的 Coze 工作流的配置细节、常见问题与解决方法。适合人群为玩过 AI 对话产品的一般用户,以及对 AI 应用开发平台(如 Coze、Dify)和 AI Agent 工作流配置感兴趣的爱好者。注:本文不单独讲解案例所涉及 Prompt 的撰写方法。文末「拓展阅读」中,附有相关 Prompt 通用入门教程、Coze 其他使用技巧等内容,以供前置或拓展学习。 其他相关基础教程: 大圣:胎教级教程:万字长文带你使用 Coze 打造企业级知识库 (https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb) 大聪明:保姆级教程:Coze 打工你躺平 (https://waytoagi.feishu.cn/wiki/PQoUwXwpvi2ex7kJOrIcnQTCnYb) 安仔:Coze 全方位入门剖析免费打造自己的 AI Agent (https://waytoagi.feishu.cn/wiki/SaCFwcw9xi2qcrkmSxscxTxLnxb) 基础教程:Coze“图像流”抢先体验 (https://waytoagi.feishu.cn/wiki/AHs2whOS2izNJakGA1NcD5BEnuf) YoYo:Coze 图像流小技巧:探索视觉艺术的隐藏宝藏 (https://waytoagi.feishu.cn/wiki/CTajwJnyZizxlJk8a4AcJYywnfe) 【智能体】让 Coze 智能体机器人连上微信和微信群详细配置文档 (https://waytoagi.feishu.cn/wiki/ExHMwCDZ7i6NA7knCWucFvFvnvJ)
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
AI视频教程
以下是为您提供的 AI 视频教程相关内容: AI 让古画动起来的教程: 1. 对于简单的图,找原图直接写提示词即可。若碰到多人多活动的复杂图,需把长图分多个模块,比如将一张图分成 4 个模块。 2. 智能抠图,用工具把要动的内容去除掉,用 AI 生成图片部分。若有水印,可以把图片向下拓展一部分,然后截掉。 3. 将要拿来动起来的部分抠出,放在绿幕背景里或者画的背景颜色,导出图片。 4. 用 AI 视频生成工具写入提示词让图片动起来,如即梦、海螺、混元等工具,不停尝试抽卡。 5. 用剪映把抽卡合格的视频放在去掉内容的背景图片,通过色度抠图调整去掉视频的背景。多个视频放在背景图片,一起动即可。 AI 视频相关的软件教程: 包括视频模型如 luma Dream Machine、可灵、MiniMax 海螺 AI、Sora、Vidu 等,工具教程如 Hedra,视频工具如 VIGGLE,以及应用教程如视频转绘、视频拆解等。相关链接如下: WaytoAGI X 剪映的 AI 创意视频征集令·第 1 期: 1. 征集内容:使用 AI 功能创作的创意视频成片,也可投稿 AI 创意视频的教程(教大家如何做一个 AI 创意视频)。AI 功能包括但不限于:AI 对口型、AI 改动作、AI 配音、克隆音色、AI 音乐、AI 特效、AI 图文成片、AI 剪视频等。不包括纯图片生成或纯视频生成的内容(特指用 AI 工具生成的图片、图生视频,但视频里没有添加 AI 功能)。 2. 创作工具:主要使用「剪映」平台工具创作,可多使用剪映平台的 AI 功能/新功能;部分 AI 效果若剪映无法实现,可使用其他软件创作。 3. 内容价值:视频需有消费价值,要有一定内容主题,有故事感、或者有梗、或者有核心观点表达,让用户有持续观看和点赞、收藏的欲望。缺少内容主题、过于简单、过于模板化的内容将不予通过。在抖音、小红书等平台点赞量高的内容,审核通过率大大提升! 4. 原创度:作品需要原创、极具创意和独特性,且符合当代年轻群体的审美和兴趣喜好,不可照搬、抄袭他人创意,一经发现将取消活动奖励,视情节严重情况回收灵感发布权限。 5. 作品延展度:作品有可模仿性,其他创作者看完后,可模仿学习或二创。比如:前期素材易获取,后期素材易剪辑或处理,让其他视频创作者有强烈的模仿欲望,且对自己模仿或二创视频有成就感和分享欲。 6. 作品时长:时长适中,最短不低于 15 秒,最长不建议超过 3 分钟。
2025-04-13
AI出设计图教程
以下是关于 AI 出设计图的教程: 使用 Midjourney 生成 UI 界面: 页面指令:指定生成某个页面(如首页、登录页等),只需添加页面指令描述,如“landing page”(登录页)、“Profile Page”(个人资料页)。 社交平台:关键词“landing page”可生成社交平台的登录页设计。 信息类:关键词“Profile Page”可生成人力资源类产品的个人资料页,包含照片、自我介绍、基本信息等内容。 Midjourney 产出的设计图视觉效果不错,适合在 APP 设计的初始阶段,如头脑风暴和风格探索中为设计师提供灵感和创意。但目前要直接用于开发仍有距离。 使用 Claude 生成设计稿的技巧: 引用 Tailwind CSS 写组件样式,确保色彩、响应式和基础组件的美观度。 按照特定的四个技巧可让 Claude 设计出美观的界面或组件。 生成设计稿的方法:将生成的代码部署到线上,使用 html.to.design 这个 Figma 插件将网页转换为设计稿,但每天免费次数有限。 进阶技巧和关键词: 图片内容一般分为二维插画和三维立体两种表现形式。 主题描述:可描述场景、故事、元素、物体或人物细节等。描述场景中的人物时应独立描述,避免长串文字,否则 AI 可能识别不到。 设计风格:可通过找风格类关键词参考或垫图/喂图,让 AI 根据给出的图片风格结合主题描述生成相应风格的图片。对于材质的描述,关键词的运用较为复杂,需要针对特定风格进行“咒语测试”。
2025-04-12
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
单独调用知识库
以下是关于知识库的相关内容: 创建并使用知识库: 在 Bot 内使用知识库: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量(Bot 在调用知识库匹配用户输入内容时,返回的数据片段数量,数值越大返回的内容越多)、最小匹配度(Bot 在调用知识库匹配用户输入内容时,会将达到匹配度要求的数据片段进行召回。如果数据片段未达到最小匹配度,则不会被召回)、调用方式(自动调用:每轮对话将自动从所有关联的知识库中匹配数据并召回;按需调用:需要在人设与回复逻辑中提示 Bot 调用 RecallKnowledge 方法,以约束 Bot 在指定时机从知识库内匹配数据)。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用 Knowledge 节点: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 Coze 打造 AI 私人提效助理实战知识库: 在上述步骤中创建好知识库后,就可以在智能体中配置知识库了。在 coze 主页,个人空间 > 项目开发中,打开一个需要添加知识库的智能体,可以选择配置“文本”、“表格”、“照片”三种知识库。下面以配置文本知识库作为例子。点击加号,选择在 1.3 中已经提前创建好的知识库,点击添加。下一步就是配置提示词,让智能体自动使用知识库回答问题。在进行大概地描述以后,点击右上角“优化”,可以自动优化提示词,获得更好的结果。最后,在网页最右方的“预览与调试”中,测试智能体是否正常调用知识库。 集合 Deepseek 提示词方法论: DeepSeek R1 提示词系统完全指南: 三、进阶控制技巧: 1. 思维链引导:分步标记法(请逐步思考:1. 问题分析→2. 方案设计→3. 风险评估)、苏格拉底式追问(在得出最终结论前,请先列举三个可能存在的认知偏差)。 2. 知识库调用:领域限定指令(基于 2023 版中国药典,说明头孢类药物的配伍禁忌)、文献引用模式(以 Nature 2022 年发表的论文为参考,解释 CRISPR Cas9 最新突破)。 3. 多模态输出。 四、高级调试策略: 1. 模糊指令优化: 问题类型:宽泛需求,修正方案:添加维度约束,示例对比:原句:"写小说"→修正:"创作以 AI 觉醒为背景的悬疑短篇,采用多视角叙事结构"。 问题类型:主观表述,修正方案:量化标准,示例对比:原句:"写得专业些"→修正:"符合 IEEE 论文格式,包含 5 项以上行业数据引用"。 2. 迭代优化法: 1. 首轮生成:获取基础内容。 2. 特征强化:请加强第三段的技术细节描述。 3. 风格调整:改用学术会议报告语气,添加结论部分。 4. 最终校验:检查时间逻辑一致性,列出可能的事实性错误。
2025-04-09
知识库的批量创建和调用
以下是关于知识库的批量创建和调用的详细信息: 使用知识库: 在 Bot 内使用: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 4. 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 5. (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,包括最大召回数量、最小匹配度和调用方式(自动调用或按需调用)。 6. (可选)在预览与调试区域调试 Bot 能力时,扩展运行完毕的内容可以查看知识库命中并召回的分片内容。 在工作流内使用: 1. 登录。 2. 在左侧导航栏的工作区区域,选择进入指定团队。 3. 在页面顶部进入工作流页面,并打开指定的工作流。 4. 在左侧基础节点列表内,选择添加 Knowledge 节点。 创建知识库并上传表格数据: API 方式: 1. 在表格格式页签下,选择 API,然后单击下一步。 2. 单击新增 API。 3. 输入网址 URL 并选择数据的更新频率,然后单击下一步。 4. 输入单元名称或使用自动添加的名称,然后单击下一步。 5. 配置数据表信息后,单击下一步。 5.1 确认表结构:系统已默认获取了表头的列名,您可以自定义修改列名,或删除某一列名。 5.2 指定语义匹配字段:选择哪个字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 6. 查看表结构和数据,确认无误后单击下一步。 7. 完成上传后,单击确定。 自定义方式: 1. 在表格格式页面下,选择自定义,然后单击下一步。 2. 输入单元名称。 3. 在表结构区域添加字段,单击增加字段添加多个字段。 4. 设置列名,并选择指定列字段作为搜索匹配的语义字段。在响应用户查询时,会将用户查询内容与该字段内容的内容进行比较,根据相似度进行匹配。 5. 单击确定。 6. 单击创建分段,然后在弹出的页面输入字段值,然后单击保存。 创建文本型知识库: 目前支持 5 种导入类型:本地文档、在线数据、notion、飞书、自定义。 在线数据: 自动采集:支持从单个页面或批量从指定网站中导入内容。 添加单个页面的内容: 1. 添加方式:选择添加单个。 2. 更新频率:选择是否自动更新指定页面的内容及自动更新的频率。 3. 网址 URL:输入要采集内容的网址。 批量添加网页内容: 1. 添加方式:选择批量添加。 2. 根地址或网站地图:输入要批量添加的网页内容的根地址或 sitemap 地址,然后单击导入。 3. 导入成功后,单击确认。 手动采集:支持标注要采集的内容,内容上传成功率高。使用手动采集方式,需要先安装浏览器扩展程序。安装步骤,参考。 1. 在新增 URL 页面,选择手动采集。 2. 在弹出的页面输入要采集内容的网址,然后单击确认。 3. 在弹出的页面上,点击页面下方文本标注按钮,开始标注要提取的内容,然后单击文本框上方的文本或链接按钮。 4. 单击查看数据查看已采集的内容,确认无误后再点击完成并采集。
2025-04-09
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
coze上提取视频文案的插件有哪些?都是怎么调用的
以下是关于在 coze 上提取视频文案的插件及调用方法: 1. 进入 coze 个人空间,选择插件,新建一个插件并命名,如 api_1。 2. 在插件的 URL 部分,填入通过 ngrok 随机生成的 https 的链接地址。 3. 配置输出参数和 message 输出。 4. 测试后发布插件。 需要注意的是: 1. 如果在生产环境中已有准备好的 https 的 api,可直接接入。 2. 本案例中使用的是 coze 国内版,且案例中的 ngrok 仅供娱乐,在生产环境中勿用。
2025-04-01
如何综合运用插件、工作流、知识库,搭建满足各种需求的智能体,尤其是调用多个智能体,组成像Manus这样的工具?
要综合运用插件、工作流、知识库搭建满足各种需求的智能体,尤其是调用多个智能体组成类似 Manus 的工具,需要了解以下内容: 插件:插件如同一个工具箱,里面可放置一个或多个工具,称为 API。扣子平台有多种类型的插件,如看新闻、规划旅行、提高办公效率、理解图片内容的 API 及能处理多种任务的模型。若平台现有插件不符合需求,还可自行制作添加所需 API。 工作流:工作流类似可视化拼图游戏,可将插件、大语言模型、代码块等功能组合,创建复杂稳定的业务流程。工作流由多个节点组成,开始和结束节点有特殊作用,不同节点可能需要不同信息,包括引用前面节点信息或自行设定信息。 知识库:可上传私有文件作为回答参考。 智能体:智能体是对自定义操作的封装,用于解决特定场景问题。以 ChatGPT 的 GPTs 为例,包括描述作用和回复格式的提示词、作为回答参考的知识库、请求第三方 API 获取实时数据的外挂 API 以及个性化配置等。 例如,在“竖起耳朵听”的智能体中添加了插件和工作流的相关设置。创建智能体时,输入人设等信息,并配置工作流。但需注意,如工作流中使用的插件 api_token 为个人 token 时,不能直接发布,可将其作为工作流开始的输入,由用户购买后输入使用再发布。 此外,在 AI 搜索中,可预置 after_answer 钩子,将请求大模型的上下文和回答发给第三方插件整理成文章或思维导图等格式同步到第三方笔记软件。全流程中有很多节点可做 Hook 埋点,多个插件构成可插拔架构,常用功能可抽离成标准插件用于主流程或辅助流程,还可自定义智能体 Agent 等。
2025-03-29
目前模型之间是如何分类的
目前模型的分类方式多种多样,以下为您介绍几种常见的分类角度: 1. 从来源角度:根据模型的出处,可分为来自行业(如 Google、Meta、OpenAI 等公司)、学术界(如清华大学、麻省理工学院、牛津大学等)、政府(如英国的艾伦·图灵研究所、阿布扎比的技术创新研究所等)以及研究团体(如艾伦研究所、弗劳恩霍夫研究所等非营利性 AI 研究组织)。在 2014 年之前,学术界在发布机器学习模型方面领先,此后行业占据主导。 2. 从整体架构角度: 基础层:为大模型提供硬件支撑和数据支持,例如 A100、数据服务器等。 数据层:包括企业根据自身特性维护的静态知识库和动态的三方数据集,而非用于基层模型训练的数据基集。 模型层:分为 LLm(如 GPT 等大语言模型,一般使用 transformer 算法实现)和多模态模型(如文生图、图生图等模型,训练数据为图文或声音等多模态数据集)。 平台层:如大模型的评测体系或 langchain 平台等,是模型与应用之间的组成部分。 表现层:即应用层,是用户实际看到的部分。 此外,像 OpenAI o3mini 模型,在 OpenAI 的准备框架中被分类为中等风险,并采取了相应的保障和安全缓解措施。
2025-04-13
deepseek与chatgpt之间的差别
DeepSeek 与 ChatGPT 存在以下差别: 1. App Store 排名:DeepSeek R1 冲到了美国区 App Store 第一名,超越了 ChatGPT。 2. 口碑与推广:DeepSeek 没有市场部和市场投放,依靠技术实力和口碑获得认可;而 ChatGPT 可能有不同的推广策略。 3. 性能与成本:DeepSeek R1 效果比肩顶尖闭源模型 o1,价格仅为 o1 的 27 分之一。 4. 开源与创新:DeepSeek R1 开源让行业认知拉齐,得到尊重和喜爱;ChatGPT 可能在开源方面有所不同。 5. 创新模型:DeepSeek R1 的创新模型 R1 Zero 跳过监督微调(SFT)阶段,直接采用强化学习(RL)训练,且发现模型思考能力可自我涌现。 6. 影响:DeepSeek R1 的发布引发美国科技界恐慌,挑战英伟达市场地位;ChatGPT 也有其自身的影响。 此外,游戏科学创始人冯骥称 DeepSeek 具备强大、便宜、开源、免费、联网和本土等六大优势,全面超过现有 AI 大模型。相关报道还指出 DeepSeek R1 在美国 App Store 夺冠,成为开源 AI 领域的领军者。
2025-03-27
AI、AIGC、大模型这三者之间有什么关系
AI(人工智能)是一种让机器展现智慧的目标。AIGC(人工智能生成内容)是利用人工智能技术生成包括文本、图像、音频和视频等内容的新型生产方式。大模型如大语言模型(LLM)是具有大量参数的“深度学习”模型。 生成式 AI 是一种让机器产生复杂有结构内容的目标。机器学习是让机器自动从资料中找公式的手段,深度学习是更厉害的类神经网络且有大量参数的手段。 AIGC 技术可用于多种应用,如自动撰写新闻文章、生成艺术画作等。ChatGPT 是 AIGC 技术在文本生成领域的一个应用实例,它是基于大型语言模型(LLM)的对话机器人,能根据用户输入生成连贯且相关的文本回复。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络(RNN)或卷积神经网络(CNN)。
2025-03-13
1、Puzzle 选择一个你(们)感兴趣的社会问题或者现象。 “赛博信仰”指在网络环境下衍生的一系列超现实、寄托心理期许的新兴文化现象。这种现象反映了人们在数字化时代中对精神寄托、心理安慰和未来预测的需求。赛博信仰不仅是一种文化现象,也反映了现代社会中人们对科技、信仰和现实之间关系的重新思考。 2、Facts 关于这个问题/现象,都有哪些基本事实? 比如有人购买电子形式的马克思、爱因斯坦的脑子,象征着对智慧的渴望;借助塔罗测试程序、deepseek算命等AI工具,尝试预知命运;夸赞鹿童、转发锦鲤
关于“赛博信仰”这一现象,目前所了解到的基本事实包括:有人购买电子形式的马克思、爱因斯坦的脑子以象征对智慧的渴望;借助塔罗测试程序、deepseek 算命等 AI 工具尝试预知命运;夸赞鹿童、转发锦鲤等。但目前掌握的相关事实相对有限,还需要进一步的研究和观察来更全面地了解这一现象。
2025-03-13
agent 打通应用之间的协议?
在 AI 领域中,Agent 是连接模型与应用的关键。端侧 Agents 是在终端设备上自主运行的智能代理程序,具备感知、决策、执行的闭环能力。 Agent 之所以重要,原因包括:端侧资源约束要求最优化使用,任务具有复杂性,生态存在多样性,双系统路线更适合端侧。 Agent 创造价值的方式体现在双重价值实现:一是资源优化,包括任务分解、按需调用;二是生态连接,比如跨应用协作、UI 理解。 其发展趋势包括:技术上从单一模型到多智能体协作;生态上从封闭应用到开放服务;交互上从指令执行到场景理解。 在技术层面,AI Agent 的发展出现了两条技术路线:一是以自主决策为核心的 LLM 控制流,二是以工作流(Workflow)编排为重点的工具集成系统。 特别值得关注的是 Anthropic 提出的 MCP(Model Context Protocol),它的本质是一个通用接口协议,试图解决让 AI 模型能够以标准化、可扩展的方式与外部世界交互的问题。 此外,还有 Agent Protocol 这种用于与 AI 代理进行通信的统一接口,它提供了一种 API 规范,任何代理开发者都可以实现该协议,设计简单且不依赖特定技术栈,有助于生态系统发展和简化集成,并提供了不同语言的 SDK 供开发者使用。
2025-03-09
我有个计算流体力学相关的数值模式,代码是C++写的,几万行,有多个文件,各个文件之间是相互关联,现在想对代码的运行效率、代码规范等进行优化升级,有什么AI工具推荐
目前在您所描述的这种对大规模、相互关联的 C++代码进行运行效率和代码规范优化升级的场景中,暂时没有特别直接适用的 AI 工具。不过,您可以考虑使用一些传统的代码分析和优化工具,例如: 1. ClangTidy:这是一个用于 C++代码的静态分析工具,可以帮助发现代码中的潜在问题,并提供一些改进建议。 2. Valgrind:用于检测内存管理错误和性能问题。 同时,您也可以利用一些代码版本管理工具,如 Git,来更好地跟踪和管理代码的修改。
2025-03-08