以下是 AI Agent 或工作流的一些落地场景:
Long horizon task长期任务执行:就像一个称职的项目经理,Agent现在能够处理更复杂、跨度更长的任务。它不仅能够将大任务分解成可管理的小步骤,还能在执行过程中保持清晰的目标导向,适时调整策略。多模态理解:Agent不再局限于单一的交流方式。它能同时理解文字、图像、声音,就像人类一样通过多种感官来理解世界。这种全方位的感知能力让它能更好地理解环境和任务上下文。记忆与行动:通过先进的记忆机制,Agent能够像人类一样积累经验,从过去的交互中学习。它不仅能记住之前的对话,还能记住操作步骤和效果,这让它的行动更加精准和高效。自适应学习:最令人惊叹的是Agent的学习能力。它能够从每次交互中吸取经验,不断完善自己的策略。这种进步不是简单的数据积累,而是真正的“智慧成长”。在技术层面,AI Agent的发展出现了两条技术路线:一是以自主决策为核心的LLM控制流,二是以工作流(Workflow)编排为重点的工具集成系统。前者代表了AGI的探索方向,后者则加速了AI落地应用。特别值得关注的是Anthropic提出的MCP(Model Context Protocol),在其官网,Anthropic说2025年将是Agentic系统年。MCP的本质是一个通用接口协议,它试图解决一个根本性问题:如何让AI模型能够以一种标准化、可扩展的方式与外部世界交互。在传统方法中,每添加一个新工具或数据源,都需要重新设计接口和提示词。MCP则提供了一个统一的抽象层,将所有外部资源(工具、API、数据库等)抽象为“上下文提供者”(Context Providers),使得模型能够自然地使用各种工具和访问各类数据。用一个比喻来理解:想象一个刚来到陌生城市的人。他需要完成各种任务:找住处、办手续、买日用品。
在上篇文章[Prompt工程|样例驱动的渐进式引导法:利用AI高效设计提示词,生成预期内容](https://mp.weixin.qq.com/s/3pFG_Tx7gcnnjOyqgM1P_w)中,我已经提到过Prompt工程的必备能力:通过逻辑思考,从知识经验(KnowHow)中抽象表达出关键方法与要求。这一理念同样适用在Coze中创建AI Agent。本文主要讨论工作流驱动的Agent,搭建工作流驱动的Agent,简单情况可分为3个步骤:1.规划:制定任务的关键方法总结任务目标与执行形式将任务分解为可管理的子任务,确立逻辑顺序和依赖关系设计每个子任务的执行方法2.实施:分步构建和测试Agent功能在Coze上搭建工作流框架,设定每个节点的逻辑关系详细配置子任务节点,并验证每个子任务的可用性3.完善:全面评估并优化Agent效果整体试运行Agent,识别功能和性能的卡点通过反复测试和迭代,优化至达到预期水平接下来,我们从制定关键方法与流程,梳理「结构化外文精读专家」Agent的任务目标。
如果大家使用Kimi Chat来查询某个问题,你会发现它会在互联网上检索相关内容,并基于检索结果进行总结分析,最后给出结论。这其实是大模型利用「网页搜索」工具的一个典型例子,同时你也会看到PPT中介绍了非常多的不同领域类型的工具,它其实是为大模型在获取、处理、呈现信息上做额外的补充。PlanningAgent通过自行规划任务执行的工作流路径,面向于简单的或者一些线性流程的运行。比如下图中:Agent会先识别男孩的姿势,并可能找到一个姿势提取模型来识别姿势,在接下来要找到一个姿势图像模型来合成一个新的女孩图像,然后再使用图像理解文本的模型,并在最后使用语音合成输出,完成这个流程任务。Multiagent Collaboration吴恩达通过开源项目ChatDev进行举例,你可以让一个大语言模型扮演不同的角色,比如让一个Agent扮演公司CEO、产品经理、设计师、代码工程师或测试人员,这些Agent会相互协作,根据需求共同开发一个应用或者复杂程序。AI Agent基本框架OpenAI的研究主管Lilian Weng曾经写过一篇博客叫做《LLM Powered Autonomous Agents》,其中就很好的介绍了Agent的设计框架,她提出了“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型LLM扮演了Agent的“大脑”。Planning(规划)主要包括子目标分解、反思与改进。将大型任务分解为较小可管理的子目标处理复杂的任务。而反思和改进指可以对过去的行动进行自我批评和自我反思,从错误中学习并改进未来的步骤,从而提高最终结果的质量。Memory(记忆)