以下是一些您可以阅读的关于 AI Agent 的文章:
您可以通过以下链接获取具体内容:
[0.从这里启程](https://waytoagi.feishu.cn/wiki/PFXnwBTsEiGwGGk2QQFcdTWrnlb?table=tblyh76bHrCi4PXq&view=vewUunvDn1)增加了AI Agent图谱,由共建者缱绻怡然制作;[2.精选:AI Agents文章](https://waytoagi.feishu.cn/wiki/DaUTwIF1aiMPXlkAZsNcPJJgnsg?chunked=false&table=tbl8Uhyj3PcMAHHT&view=vew3yNtR1O)新增《[谈复杂Agent策略框架的设计(2)【2023Q4】](https://waytoagi.feishu.cn/record/CeKeroG9beoLslcO2mScRNXrnrf)》,作者孔某人,主要讨论基于LLM的复杂Agent的实现;《[Essential AI获得5700万美元融资!谷歌、英伟达、AMD以及Thrive都投了](https://waytoagi.feishu.cn/record/S9pRrcMczeqxrVcogrecb3OqnLh)》,来自有新Newin,Essential AI由两位谷歌重要研究论文的作者Ashish Vaswani和Niki Parmar创立,2017年在谷歌工作时与他人一起共同撰写了具有重要影响力的论文《Attention Is All You Need》。Essential AI正在开发全栈AI产品,这些产品具备快速学习能力,能够通过自动化繁琐且耗时的工作流程来提高生产力;Tesla发布Optimus Gen2机器人,现在拥有更加精致的外观,并且比5月份特斯拉展示Optimus Gen1时的速度快了30%,[跳转这里看视频](https://waytoagi.feishu.cn/record/U6NzrvPxweQa1icg4rGc12GRnge):
理解工具:AI Agent有效使用工具的前提是全面了解工具的应用场景和调用方法。没有这种理解,Agent使用工具的过程将变得不可信,也无法真正提高AI Agent的能力。利用LLM强大的zero-shot learning和few-shot learning能力,AI Agent可以通过描述工具功能和参数的zero-shot demonstartion或提供特定工具使用场景和相应方法演示的少量提示来获取工具知识。这些学习方法与人类通过查阅工具手册或观察他人使用工具进行学习的方法类似。在面对复杂任务时,单一工具往往是不够的。因此,AI Agent应首先以适当的方式将复杂任务分解为子任务,然后有效地组织和协调这些子任务,这有赖于LLM的推理和规划能力,当然也包括对工具的理解。使用工具:AI Agent学习使用工具的方法主要包括从demonstartion中学习和从reward中学习(清华有一篇从训练数据中学习的文章)。这包括模仿人类专家的行为,以及了解其行为的后果,并根据从环境和人类获得的反馈做出调整。环境反馈包括行动是否成功完成任务的结果反馈和捕捉行动引起的环境状态变化的中间反馈;人类反馈包括显性评价和隐性行为,如点击链接。具身智能在追求人工通用智能(AGI)的征途中,具身Agent(Embodied Agent)正成为核心的研究范式,它强调将智能系统与物理世界的紧密结合。具身Agent的设计灵感源自人类智能的发展,认为智能不仅仅是对预设数据的处理,更多地来自于与周遭环境的持续互动和反馈。与传统的深度学习模型相比,LLM-based Agent不再局限于处理纯文本信息或调用特定工具执行任务,而是能够主动地感知和理解其所在的物理环境,进而与其互动。这些Agent利用其内部丰富的知识库,进行决策并产生具体行动,以此改变环境,这一系列的行为被称为“具身行动”。
理解工具:AI Agent有效使用工具的前提是全面了解工具的应用场景和调用方法。没有这种理解,Agent使用工具的过程将变得不可信,也无法真正提高AI Agent的能力。利用LLM强大的zero-shot learning和few-shot learning能力,AI Agent可以通过描述工具功能和参数的zero-shot demonstartion或提供特定工具使用场景和相应方法演示的少量提示来获取工具知识。这些学习方法与人类通过查阅工具手册或观察他人使用工具进行学习的方法类似。在面对复杂任务时,单一工具往往是不够的。因此,AI Agent应首先以适当的方式将复杂任务分解为子任务,然后有效地组织和协调这些子任务,这有赖于LLM的推理和规划能力,当然也包括对工具的理解。使用工具:AI Agent学习使用工具的方法主要包括从demonstartion中学习和从reward中学习(清华有一篇从训练数据中学习的文章)。这包括模仿人类专家的行为,以及了解其行为的后果,并根据从环境和人类获得的反馈做出调整。环境反馈包括行动是否成功完成任务的结果反馈和捕捉行动引起的环境状态变化的中间反馈;人类反馈包括显性评价和隐性行为,如点击链接。具身智能在追求人工通用智能(AGI)的征途中,具身Agent(Embodied Agent)正成为核心的研究范式,它强调将智能系统与物理世界的紧密结合。具身Agent的设计灵感源自人类智能的发展,认为智能不仅仅是对预设数据的处理,更多地来自于与周遭环境的持续互动和反馈。与传统的深度学习模型相比,LLM-based Agent不再局限于处理纯文本信息或调用特定工具执行任务,而是能够主动地感知和理解其所在的物理环境,进而与其互动。这些Agent利用其内部丰富的知识库,进行决策并产生具体行动,以此改变环境,这一系列的行为被称为“具身行动”。