Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

开源的开源的 LLM 微调推理,agent开发平台

Answer

以下是为您整理的关于开源的 LLM 微调推理、agent 开发平台的相关内容:

LLM 作为 Agent 的“大脑”的特点

  1. 知识获取能力:通过预训练学习大量语言数据,掌握丰富语言信息和常识知识,能处理多种任务。
  2. 指令理解:擅长解析人类语言指令,采用深度神经网络进行自然语言理解和生成,精准理解意图。
  3. 泛化能力:在未见过的数据上表现良好,能利用先前知识处理新挑战,形成对语言结构的通用理解。
  4. 推理和规划:能够进行逻辑推理和未来预测,分析条件制定最佳行动方案,在复杂环境中做出理性选择。
  5. 交互能力:拥有强大对话能力,在多人多轮次对话中自然流畅交流,改善用户体验。
  6. 自我改进:基于用户反馈和效果评估,通过调整参数、更新算法提升性能和准确性。
  7. 可扩展性:可根据具体需求定制化适配,针对特定领域数据微调提高处理能力和专业化水平。

相关产品和平台

  1. ComfyUI:可在其中高效使用 LLM。
  2. Vercel AI SDK 3.0:开源的工具,可将文本和图像提示转换为 React 用户界面,允许开发者创建丰富界面的聊天机器人。
  3. OLMo-7B-Instruct:Allen AI 开源的微调模型,可通过资料了解从预训练模型到 RLHF 微调模型的所有信息并复刻微调过程。
  4. Devv Agent:能提供更准确、详细的回答,底层基于 Multi-agent 架构,根据需求采用不同 Agent 和语言模型。

实例探究

  1. ChemCrow:特定领域示例,通过 13 个专家设计的工具增强 LLM,完成有机合成、药物发现和材料设计等任务。
  2. Boiko et al. (2023) 研究的 LLM 授权的科学发现 Agents:可处理复杂科学实验的自主设计、规划和执行,能使用多种工具。
Content generated by AI large model, please carefully verify (powered by aily)

References

ComfyUI & LLM:如何在ComfyUI中高效使用LLM

1.知识获取能力:LLM(例如GPT或BERT)通过预训练学习了大量的语言数据。这意味着这些模型已经掌握了大量的语言信息和常识知识。由于预训练数据涵盖了从书籍、新闻文章到互联网上的各种文本,LLM能够理解和处理多种任务。无论是日常生活的常见问题还是专业知识,LLM都能够从中汲取足够的知识基础来进行有效的处理和输出。2.指令理解:LLM擅长解析人类的语言指令。无论是简洁的命令还是复杂的句子,LLM都能够理解这些指令的真实含义,并据此作出相应的回应。它们通常采用深度神经网络进行自然语言理解和生成,从而能够精准理解用户的语言表达意图。3.泛化能力:泛化能力指的是在未见过的数据上表现良好,即使遇到未曾明确训练过的任务,LLM也可以利用先前学到的知识处理新的挑战。它们通过大量训练样本形成了对语言结构的通用理解,可以应用于各种未曾预料的情境。4.推理和规划:LLM能够进行逻辑推理和未来预测。这意味着它们可以通过分析当前条件来预测结果,或是基于现有数据来制定下一步行动的最佳方案。这种能力允许Agent在复杂动态环境中做出理性的选择并引导行动。5.交互能力:LLM拥有强大的对话能力,能够在多人多轮次对话中自然流畅地进行沟通交流。这种特性对于构建实用性强的操作界面至关重要,可以显著改善用户体验。6.自我改进:基于用户的使用反馈和实际效果评估,LLM可以通过调整参数、更新算法等方式逐渐提升自身性能和准确性,这一过程称为自我改进。随着时间推移,Agent会变得越来越“聪明”,更好地满足用户需求。7.可扩展性:可扩展性意味着LLM可以根据具体需求进行定制化适配。通过针对某一领域或某种任务的数据进行微调,LLM可以显著提高在特定领域的处理能力和专业化水平。

AIGC Weekly #61

链接:https://vercel.com/blog/ai-sdk-3-generative-uiVercel在2024年3月1日宣布开源其v0.dev生成式UI设计工具的技术,并发布了Vercel AI SDK 3.0。这个工具最初是在去年十月推出的,它可以将文本和图像提示转换为React用户界面(UI),简化了设计工程流程。AI SDK 3.0允许开发者创建超越纯文本和Markdown的聊天机器人,提供基于组件的丰富界面。[heading2]OLMo-7B-Instruct:完整的开源LLM[content]链接:https://allenai.org/olmoAllen AI开源了微调模型OLMo-7B-Instruct,真正意义上的开源。你可以通过他们给出的资料了解从预训练模型到RLHF微调模型的所有信息。自己复刻一遍微调过程。发布的内容包括:完整的预训练数据:该模型是基于AI2的Dolma数据集构建的,该数据集包括了用于语言模型预训练的三万亿标记的开放语料库,包括生成训练数据的代码。训练代码和模型权重:OLMo框架包括四种7B规模模型变体的完整模型权重,每个模型至少训练了2T个标记。推理代码、训练指标和训练日志都已提供。评估:我们已发布了开发中使用的评估套件,每个模型每1000步都有500多个检查点,并在Catwalk项目的框架下提供了训练过程和评估代码。[heading2]Devv Agent:更详细的搜索[content]链接:https://devv.ai/en发布Devv Agent,Devv Agent可以提供更准确、更详细的回答,它会理解你的需求,并分解任务,最终输出一个详尽的答案。Devv Agent底层基于的是Multi-agent的架构,根据不同的需求场景,会采用不同的Agent和语言模型。

文章:LLM 驱动的自主Agents | Lilian Weng

ChemCrow([Bran等人,2023](https://arxiv.org/abs/2304.05376))是一个特定领域的示例,其中LLM通过13个专家设计的工具进行了增强,以完成有机合成、药物发现和材料设计等任务。[在LangChain](https://github.com/hwchase17/langchain)中实现的工作流程反映了之前在[ReAct](https://lilianweng.github.io/posts/2023-06-23-agent/#react)和[MRKL](https://lilianweng.github.io/posts/2023-06-23-agent/#mrkl)中描述的内容,并将CoT推理与与任务相关的工具相结合:LLM提供了工具名称列表、其实用程序的描述以及有关预期输入/输出的详细信息。然后,系统会指示它在必要时使用提供的工具来回答用户给出的提示。该指令建议模型遵循ReAct格式-Thought,Action,Action Input,Observation.一个有趣的观察是,尽管基于LLM的评估得出结论称GPT-4和ChemCrow的表现几乎相当,但与专家进行的人工评估,专注于解决方案的完整性和化学正确性,显示出ChemCrow在很大程度上胜过GPT-4。这表明在需要深入专业知识的领域中,使用LLM来评估自身的性能可能存在潜在问题。缺乏专业知识可能导致LLM不了解其缺陷,因此无法很好地判断任务结果的正确性。[Boiko et al.(2023)](https://arxiv.org/abs/2304.05332)还研究了LLM授权的科学发现Agents,以处理复杂科学实验的自主设计、规划和执行。该Agents可以使用工具浏览互联网、阅读文档、执行代码、调用机器人实验API并利用其他LLM。例如,当要求时"develop a novel anticancer drug",模型提出以下推理步骤:

Others are asking
自动生成提示词的开源工具有哪些
以下是一些自动生成提示词的开源工具: 1. Freepik 推出的 Reimagine AI 工具:用户上传图片即可自动生成提示词,无需输入文字。它还能实时提供无限滚动结果展示,边操作边生成图像,通过调整提示词实时修改图片细节,并支持多种风格切换。相关链接:https://freepik.com/pikaso/reimagine 、https://x.com/imxiaohu/status/1770437135738581414?s=20 2. StreamMultiDiffusion 项目:使用区域文本提示实时生成图像,具有交互式操作体验,每个提示控制一个区域,实现精准图像生成。相关链接:https://arxiv.org/abs/2403.09055 、https://github.com/ironjr/StreamMultiDiffusion?tab=readmeovfile 、https://huggingface.co/spaces/ironjr/SemanticPalette 、https://x.com/imxiaohu/status/1770371036967850439?s=20 3. 【SD】自动写提示词脚本 One Button Prompt:可以在主菜单输入人物提示词,在“高级”中设置提示词混合,还具有一键运行放大的模块,包括完整的文生图放大和图生图放大,甚至可接入其他脚本和 controlnet。获取方式:添加公众号【白马与少年】,回复【SD】。
2025-04-12
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
开源AI Agent软件有哪些
以下是一些开源的 AI Agent 软件: 1. AutoGPT 和 BabyAGI:在去年 GPT4 刚发布时风靡全球科技圈,给出了让 LLM 自己做自动化多步骤推理的解题思路。 2. Coze:新一代的一站式 AI Bot 开发平台,适用于构建基于 AI 模型的各类问答 Bot,集成了丰富的插件工具。 3. Mircosoft 的 Copilot Studio:主要功能包括外挂数据、定义流程、调用 API 和操作,以及将 Copilot 部署到各种渠道。 4. 文心智能体:百度推出的基于文心大模型的智能体(Agent)平台,支持开发者根据自身需求打造大模型时代的产品能力。 5. MindOS 的 Agent 平台:允许用户定义 Agent 的个性、动机、知识,以及访问第三方数据和服务或执行设计良好的工作流。 6. 斑头雁:2B 基于企业知识库构建专属 AI Agent 的平台,适用于客服、营销、销售等多种场景,提供多种成熟模板,功能强大且开箱即用。 7. 钉钉 AI 超级助理:依托于钉钉强大的场景和数据优势,在处理高频工作场景如销售、客服、行程安排等方面表现出色。 此外,智谱·AI 开源的语言模型中也有与 Agent 相关的,如 AgentLM7B、AgentLM13B、AgentLM70B 等。
2025-03-29
mcp 有什么开源的方案吗
Anthropic 于 2024 年 11 月推出并开源了 MCP(模型上下文协议)。MCP 就像一个“转接头”或“通用插座”,能统一不同的外部服务,如 Google Drive、GitHub、Slack、本地文件系统等,通过标准化接口与大语言模型对接。开发者基于 MCP 规范开发一次“接口适配器”(MCP 服务器),就能让所有兼容 MCP 的模型(MCP 客户端)无缝接入,无需针对每个模型单独适配,大幅提升兼容性与开发效率。MCP 里面还包含 SSE(ServerSent Events),是一种允许服务器向浏览器推送实时更新的技术。MCP 像为 AI 模型量身定制的“USBC 接口”,可以标准化地连接 AI 系统与各类外部工具和数据源。与传统 API 相比,MCP 是单一协议,只要一次整合就能连接多个服务;具有动态发现功能,AI 模型能自动识别并使用可用的工具;支持双向通信,模型不仅能查询数据,还能主动触发操作。相关链接:
2025-03-27
帮我列举2025年3月1日以来,国内外、闭源开源模型厂商的更新记录。
以下是 2025 年 3 月 1 日以来,国内外、闭源开源模型厂商的部分更新记录: 2025 年 3 月 20 日,OpenAI 推出了一套全新的音频模型,旨在通过 API 为开发者提供更智能、更可定制的语音代理支持,包括改进的语音转文本和文本转语音功能,为语音交互应用带来显著提升。 李开复公开表示 OpenAI 面临生存危机,商业模式不可持续。他强调中国的 DeepSeek 以极低成本提供接近的性能,开源模式将主导未来 AI 发展。他认为企业级 AI 应用将成为投资重点,资源限制反而促进了创新。李开复大胆预测,中国将出现三大 AI 玩家,竞争愈发激烈。 SuperCLUE 发布《中文大模型基准测评 2025 年 3 月报告》,指出 2022 2025 年经历多阶段发展,国内外模型差距缩小。测评显示 o3mini总分领先,国产模型表现亮眼,如 DeepSeekR1 等在部分能力上与国际领先模型相当,且小参数模型潜力大。性价比上,国产模型优势明显。DeepSeek 系列模型深度分析表明,其 R1 在多方面表现出色,蒸馏模型实用性高,不同第三方平台的联网搜索和稳定性有差异。 以上信息来源包括: 《》 《》 《》
2025-03-26
现在Ai作图用什么?还是以前的Stable Diffusion吗?还是又出现了新的开源软件?
目前在 AI 作图领域,Stable Diffusion 仍然是常用的工具之一。Stable Diffusion 是 AI 绘画领域的核心模型,能够进行文生图和图生图等图像生成任务,其完全开源的特点使其能快速构建强大繁荣的上下游生态。 除了 Stable Diffusion,也出现了一些新的相关开源软件和工具,例如: :Stability AI 开源的 AI 图像生成平台。 :拥有超过 700 种经过测试的艺术风格,可快速搜索查找各类艺术家,并支持一键复制 Prompt。 同时,市面上主流的 AI 绘图软件还有 Midjourney,其优势是操作简单方便,创作内容丰富,但需要科学上网并且付费。如果您想尝试使用 Stable Diffusion,可以参考 B 站【秋葉 aaaki】这个 Up 主的视频了解具体的安装方法。
2025-03-24
LLM应用可观测性
LLM 应用的可观测性主要体现在以下方面: LangChain:借助 LangSmith 提供更好的日志、可视化、播放和跟踪功能,以便监控和调试 LLM 应用。LangSmith 是基于 Web 的工具,能查看和分析细化到 class 的输入和输出,还提供跟踪功能,用于记录和展示 LLM 应用的执行过程和状态,以及 LLM 的内部信息和统计数据。 Langfuse:为大模型应用提供开源可观测性和分析功能,在可视化界面中可探索和调试复杂的日志和追踪,并使用直观的仪表板改善成本、降低成本、减少延迟,提高响应质量。 此外,微软(中国)的《面向大模型的新编程范式》报告中也强调了在线监控和可观测性的重要性。
2025-04-11
LLM模型响应时间较长,如何处理超时时间问题
处理 LLM 模型响应时间过长导致的超时问题,可以考虑以下方法: 1. 参数有效调整:这是一种新颖的微调方法,通过仅训练一部分参数来减轻微调 LLM 的挑战。这些参数可能是现有模型参数的子集,或者是一组全新的参数,例如向模型添加一些额外的层或额外的嵌入到提示中。 2. 优化提示设计:采用合适的提示方法,如零样本提示、一次性提示、Fewshot prompting 等。零样本提示是只给出描述任务的提示;一次性提示是让 LLM 执行任务的单个示例;Fewshot prompting 是让 LLM 执行任务的少量示例。同时,可以使用结构化模式设计提示,包含上下文、问题示例及相应答案等组件,以指示模型应如何响应。 3. 避免频繁调整某些参数:尤其是 Top K 和 Top P,不需要经常对其进行调整。 4. 关注模型响应质量:即使有良好的提示设计,模型输出仍可能不稳定,需要持续关注和优化。 5. 考虑成本和时间:微调大型模型可能耗时且成本高,为大模型提供服务也可能涉及额外麻烦和成本,需要综合评估和优化。
2025-04-11
除了LLM,就没有AI模型了吗?
除了 LLM ,还有很多其他类型的 AI 模型。以下为您详细介绍: 1. 生成式 AI:可以生成文本、图片、音频、视频等内容形式。其中生成图像的扩散模型就不是大语言模型。 2. 机器学习:电脑找规律学习,包括监督学习、无监督学习、强化学习。 监督学习:有标签的训练数据,算法的目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习:学习的数据没有标签,算法自主发现规律。经典任务包括聚类,比如拿一堆新闻文章,让模型根据主题或内容特征分成具有相似特征的组。 强化学习:从反馈里学习,最大化奖励或最小化损失,类似训小狗。 3. 深度学习:一种参照人脑有神经网络和神经元的方法(因为有很多层所以叫深度)。神经网络可以用于监督学习、无监督学习、强化学习。 4. 谷歌的 BERT 模型:可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制(SelfAttention)来处理序列数据,而不需要依赖于循环神经网络(RNN)或卷积神经网络(CNN)。生成式 AI 生成的内容,叫做 AIGC 。
2025-04-11
linux下安装 anythingLLM
以下是在 Linux 下安装 AnythingLLM 的相关指导: 1. 安装地址:https://useanything.com/download 。 2. 安装完成后会进入配置页面,主要分为三步: 第一步:选择大模型。 第二步:选择文本嵌入模型。 第三步:选择向量数据库。 3. AnythingLLM 中有 Workspace 的概念,可以创建自己独有的 Workspace 与其他项目数据进行隔离。 首先创建一个工作空间。 上传文档并且在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型会根据自己的训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅仅会依靠文档中的数据给出答案)。 4. 完成上述配置后,即可与大模型进行对话。 此外,在 GitHubDaily 开源项目列表 2023 年复盘的 AIGC 部分中,也有关于 AnythingLLM 的介绍: 是一个可打造成企业内部知识库的私人专属 GPT!可以将任何文档、资源或内容转换为大语言模型(LLM)知识库,使得在对话过程中可引用到里面的内容。 本文的思路来源于视频号博主黄益贺,作者按照他的视频进行了实操,并附加了一些关于 RAG 的额外知识。
2025-03-27
anythingLLM本地部署
以下是关于本地部署大模型以及搭建个人知识库的相关内容: 一、引言 作者是大圣,一个致力于使用 AI 工具将自己打造为超级个体的程序员,目前沉浸于 AI Agent 研究。本文将分享如何部署本地大模型及搭建个人知识库,读完可学习到如何使用 Ollama 一键部署本地大模型、了解 ChatGPT 信息流转、RAG 概念及核心技术、通过 AnythingLLM 搭建本地化数据库等。 五、本地知识库进阶 如果想要对知识库进行更灵活掌控,需要额外软件 AnythingLLM,它包含所有 Open WebUI 能力,并额外支持选择文本嵌入模型和向量数据库。 安装地址:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步: 1. 第一步:选择大模型。 2. 第二步:选择文本嵌入模型。 3. 第三步:选择向量数据库。 构建本地知识库: AnythingLLM 中有 Workspace 概念,可创建独有 Workspace 与其他项目数据隔离。 1. 首先创建一个工作空间。 2. 上传文档并在工作空间中进行文本嵌入。 3. 选择对话模式,提供 Chat 模式(大模型根据训练数据和上传文档综合给出答案)和 Query 模式(大模型仅依靠文档数据给出答案)。 配置完成后可进行测试对话。 六、写在最后 作者推崇“看十遍不如实操一遍,实操十遍不如分享一遍”。如果对 AI Agent 技术感兴趣,可联系作者或加其免费知识星球(备注 AGI 知识库)。 本文思路来源于视频号博主黄益贺,作者按照其视频进行实操并附加了一些关于 RAG 的额外知识。
2025-03-26
LLM的原理
LLM(大语言模型)的工作原理如下: 以“我今天吃了狮子头和蔬菜”这句话为例,在 Transformer 中,会由 Attention 层对其加入更多信息补充,如“狮子头是一道菜”“今天是星期六”等,这些补充信息作为输入给到下一个 Attention 层,层与层之间,哪些信息补充、保留、传递,由模型自主学习,最终模型把海量数据以关系网形式“消化”并保留重要相关性。 形象地说,就像人阅读文章时的连贯性注意力过程,在阅读理解时,脑子里会消化吸收记忆,记忆的不是点状知识,而是网状经验。 大模型以词向量和 Transformer 模型学习海量知识,把知识作为向量空间中的关系网存储,接受输入时通过向量空间中的匹配进行输出。 观察大模型回复,是一个字一个字流式输出的,因为大模型确实在一个字一个字地推理生成内容。比如输入法输入联想,根据输入的单个字推测下一个字,加入上下文能帮助模型理解下一个字。但存在两个问题:一是全量数据计算算力吃不消,二是仅算字的概率易被不相干信息干扰,此时词向量机制和 Transformer 模型中的 Attention 自注意力机制解决了难题。 另外,RAG 对大语言模型的作用就像开卷考试对学生,事实性知识与 LLM 的推理能力相分离,被存储在容易访问和及时更新的外部知识源中,分为参数化知识(模型训练中学习得到,隐式储存在神经网络权重中)和非参数化知识(存储在外部知识源,如向量数据库中)。
2025-03-25
AI Agents(智能体)
AI 智能体(Agents)是人工智能领域中一个重要的概念: 1. 从 AGI 的发展等级来看,智能体不仅具备推理能力,还能执行全自动化业务,但目前许多 AI Agent 产品在执行任务后仍需人类参与,尚未达到完全智能体的水平。 2. 作为大模型的主要发展方向之一,智能体中间的“智能体”其实就是大模型(LLM)。通过为 LLM 增加工具、记忆、行动、规划这四个能力来实现。目前行业里主要用到的是 langchain 框架,它把 LLM 与 LLM 之间以及 LLM 与工具之间通过代码或 prompt 的形式进行串接。 3. 从智能体的起源探究来看,心灵社会理论认为智能是由许多简单的 Agent(分等级、分功能的计算单元)共同工作和相互作用的结果。这些 Agent 在不同层次上执行不同的功能,通过协作实现复杂的智能行为。心灵社会将智能划分为多个层次,每个层次由多个 Agent 负责,每个 Agent 类似于功能模块,专门处理特定类型的信息或执行特定任务。同时存在专家 Agent、管理 Agent、学习 Agent 等不同类型的 Agent 及其相应功能。从达特茅斯会议开始讨论人工智能,到马文·明斯基引入“Agent”概念,“AI”和“Agent”就彻底聚齐,往后被称之为 AI Agent。
2025-04-15
B端AI Agent
以下是关于 B 端 AI Agent 的相关知识: 一、概念定义 1. 智能体(Agent)简单理解就是 AI 机器人小助手,参照移动互联网,类似 APP 应用的概念。随着 ChatGPT 与 AI 概念的爆火,出现了很多相关新名词,如 bot 和 GPTs 等。AI 大模型是技术,面向用户提供服务的是产品,因此很多公司关注 AI 应用层的产品机会。 C 端案例:如社交方向,用户注册后先捏一个自己的 Agent,然后让其与他人的 Agent 聊天,两个 Agent 聊到一起后真人再介入;还有借 Onlyfans 入局打造个性化聊天的创业公司。 B 端案例:字节扣子和腾讯元器若为面向普通人的低代码平台,类似 APP 时代的个人开发者,那么帮助 B 端商家搭建 Agent 就类似 APP 时代专业做 APP 的。 2. 智能体开发平台:最早接触到的扣子 Coze 是通过一篇科技报道,如 2 月 1 日,字节正式推出 AI 聊天机器人构建平台 Coze 的国内版“扣子”,主要用于开发下一代 AI 聊天机器人。国内还有很多智能体开发平台,如 Dify.AI,但个人较常用的是扣子,所以常对比字节扣子和腾讯元器。 3. 关注智能体的原因:目前 AI Agent 的概念在市场上未达成共识,存在被滥用现象。AI Agent 指的是一种智能代理系统,接近人类大脑,可形成记忆、达成行动规划、自动交互、主动预测。其应用具有个性化、自主完成任务、多 Agent 协作等特点。目前 AI Agent 应用大多集中在 2B 场景,面向个人消费者的产品少,一方面是高度智能化的 Agent 能力需打磨,概念落地有距离;另一方面是 AI 和娱乐消费诉求结合少,主要带来生产方式和效率变革,个人消费者方向目前只看到“私人助理”场景。
2025-04-15
有关 ai agent 的科普文章
以下是为您提供的关于 AI Agent 的科普内容: AI Agent 是一个融合了多学科精髓的综合实体,包括语言学、心理学、神经学、逻辑学、社会科学和计算机科学等。它不仅有实体形态,还有丰富的概念形态,并具备许多人类特有的属性。 目前,关于 AI Agent 存在一些情况。例如,网络上对其的介绍往往晦涩难懂,让人感觉神秘莫测,其自主性、学习能力、推理能力等核心概念,以及如何规划和执行任务、理解并处理信息等方面,都像是笼罩在一层神秘面纱之下。 另外,以国与国之间的外交为例来解释相关协议。假设每个 AI 智能体(Agent)就是一个小国家,它们各自有自己的语言和规矩。各国大使馆试图互相沟通、做生意、交换情报,但现实中存在诸多问题,如协议各异、要求不同等。 如果您想了解更多关于 AI Agent 的详细内容,可访问: 。
2025-04-15
,AI agent 发展趋势,技术状态,商业模式
以下是关于 AI Agent 的发展趋势、技术状态和商业模式的相关信息: 发展趋势: 2024 年内,办公场景“AI 助手”开始有良好使用体验,实时生成的内容开始在社交媒体内容、广告中出现。 2025 2027 年,接近 AGI 的技术出现,人与 AI 配合的工作方式成为常态,很多日常决策开始由 AI 来执行。 技术状态: 目标实现基于 ReAct、SFT、RAG、强化学习等实现自主规划能力的 AI Agent,构建具备认知、决策智能的 Agent 智能体框架。 专注文本/多模态大模型、AI Agent 技术创新与应用。 商业模式: 依据不同类型销售市场的特点,结合一站式 AI 搭建平台将销售部署的产品化和模版化,让企业更容易落地和应用 AI 能力。 销售智能体 Blurr.AI 占位交易环节,解决 2B 销售获客的痛点,且具有向前后端环节延展的势能。
2025-04-13
AGENT
智能体(Agent)在人工智能和计算机科学领域是一个重要概念,指能够感知环境并采取行动以实现特定目标的实体,既可以是软件程序,也可以是硬件设备。 智能体具有以下特点: 1. 自主系统:通过感知环境(通常通过传感器)并采取行动(通常通过执行器)来达到某种目标。 2. 关键组成部分: 规划:将大型任务分解为更小、可管理的子目标,有效处理复杂任务。 反思和完善:对过去的行为进行自我批评和反思,从错误中吸取教训,完善未来步骤,提高最终结果质量。 记忆:包括短期记忆,用于所有的上下文学习;长期记忆,通过利用外部向量存储和快速检索实现长时间保留和回忆信息。 工具使用:学习调用外部 API 来获取模型权重中缺失的额外信息。 以下是一些与智能体相关的资源目录: 关于 2025AGENT 智能体全球创作大赛: 1. 报名:通过→首页的“立即参赛”按钮进入报名页面,填写相关信息并提交即可,且参赛完全免费。 2. 提交作品:在本网站直接提交,若采用 flowith 搭建了 Agent 可以在微博、小红书、即刻平台发布,并@Flowith 官方,可获得额外会员奖励。 3. 奖项设置:设有金、银、铜奖和多个单项奖,获奖后将获得组委会颁发的奖金和证书,需保证联系方式准确以便联系。 4. 知识产权归属:参赛作品的知识产权归参赛者所有,但组委会有权在宣传和展示中使用参赛作品。
2025-04-12
AI workflow在企业中是否比Agent应用价值和场景更多
AI workflow 和 Agent 在企业中的应用价值和场景各有特点。 Agentic Workflows 具有以下优势: 1. 灵活性、适应性和可定制性:能够根据任务难度进行调整和演变,通过组合不同模式实现定制,在需求和复杂性增长时进行迭代升级。 2. 在复杂任务上的性能提升:将复杂任务分解为更小、可管理的步骤,显著优于确定性的零样本方法。 3. 自我纠正和持续学习:能够评估自身行为,完善策略,从过去经验中学习,在每次迭代中变得更有效和个性化。 4. 操作效率和可扩展性:可以高精度自动化重复任务,减少人工操作和运营成本,还能轻松扩展。 Agentic Workflow 的应用场景包括原子设计模式的组合、与人类反馈循环集成等。例如,Agentic RAG 在检索增强生成流程中引入了一个或多个 AI Agents,在规划阶段可进行查询分解等操作,还能评估数据和响应的相关性和准确性。 一般来说,Workflow 是一系列旨在完成特定任务或目标的相互连接的步骤。最简单的工作流是确定性的,遵循预定义步骤序列。有些工作流利用大模型或其他 AI 技术,分为 Agentic 和非 Agentic 两类。非 Agentic 工作流中,大模型根据指令生成输出。Agentic Workflow 是由单个或几个 AI Agents 动态执行的一系列连接步骤,被授予权限收集数据、执行任务并做出决策,利用 Agents 的核心组件将传统工作流转变为响应式、自适应和自我进化的过程。 综上所述,不能简单地说 AI workflow 在企业中比 Agent 应用价值和场景更多,这取决于企业的具体需求和任务特点。
2025-04-09
2025年人工智能大模型的技术提升有哪些,是参数?推理能力?还是语料
2025 年人工智能大模型的技术提升可能体现在以下几个方面: 1. 视频生成能力:如 2024 年推出的多个先进的 AI 模型能够从文本输入生成高质量视频,相比 2023 年有显著进步。 2. 模型规模与性能:更小的模型能驱动更强的性能,如 2022 年最小能在 MMLU 上得分高于 60%的模型是具有 5400 亿参数的 PaLM,到 2024 年,参数仅 38 亿的微软 Phi3mini 也能达到相同阈值。 3. 推理能力:尽管加入了如思维链推理等机制显著提升了大语言模型的性能,但在一些需要逻辑推理的问题上,如算术和规划,尤其在超出训练范围的实例上,这些系统仍存在问题。 4. AI 代理:在短时间预算设置下,顶级 AI 系统得分高于人类专家,但随着时间预算增加,人类表现会超过 AI。 5. 算法变革:如 DeepSeek 的出现标志着算力效率拐点显现,其通过优化算法架构显著提升了算力利用效率,同时 2025 年发布的大模型呈现低参数量特征,为本地化部署到 AI 终端运行提供了可能,其训练过程聚焦于强化学习,提升了模型的推理能力。
2025-04-14
知识表示与推理发展过程中有哪些里程碑式的技术
在知识表示与推理的发展过程中,具有以下里程碑式的技术: 1. 知识图谱: 于 2012 年 5 月 17 日由 Google 正式提出,旨在提高搜索引擎能力,增强用户搜索质量和体验。 关键技术包括知识抽取(实体抽取、关系抽取、属性抽取)、知识表示(属性图、三元组)、知识融合(实体对齐、知识加工、本体构建、质量评估、知识更新)、知识推理。 2. Symbolic Agent: 时间:20 世纪 50 70 年代。 特点:基于逻辑和规则系统,使用符号来表示知识,通过符号操作进行推理。 技术:基于规则的系统、专家系统,如 MYCIN、XCON 等。 优点:明确的推理过程,可解释性强。 缺点:知识获取困难,缺乏常识,难以处理模糊性。
2025-03-27
以DeepSeek R1为代表的推理模型,与此前模型(如 ChatGPT-4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于
以 DeepSeek R1 为代表的推理模型与此前模型(如 ChatGPT4、Claude 3.5 sonnet、豆包、通义等)的差异点主要在于: 1. 技术路线:DeepSeek R1 与 OpenAI 现在最先进的模型 o1、o3 一样,属于基于强化学习 RL 的推理模型。 2. 思考方式:在回答用户问题前,R1 会先进行“自问自答”式的推理思考,模拟人类的深度思考,从用户初始问题出发,唤醒所需的推理逻辑与知识,进行多步推导,提升最终回答的质量。 3. 训练方式:在其他模型还在接受“填鸭式教育”时,DeepSeek R1 已率先进入“自学成才”的新阶段。 4. 模型制作:R1 是原生通过强化学习训练出的模型,而蒸馏模型是基于数据微调出来的,基础模型能力强,蒸馏微调模型能力也会强。此外,DeepSeek R1 还能反过来蒸馏数据微调其他模型,形成互相帮助的局面。 5. 与 Claude 3.7 Sonnet 相比,Claude 3.7 Sonnet 在任务指令跟随、通用推理、多模态能力和自主编程方面表现出色,扩展思考模式在数学和科学领域带来显著提升,在某些方面与 DeepSeek R1 各有优劣。
2025-03-19
推理类模型,以deepseek为代表,与此前的聊天型ai,比如chatgpt3.5,有什么差异
推理类模型如 DeepSeek 与聊天型 AI 如 ChatGPT3.5 存在以下差异: 1. 内部机制:对于大语言模型,输入的话会被表示为高维时间序列,模型根据输入求解并表示为回答。在大模型内部,是根据“最大化效用”或“最小化损失”计算,其回答具有逻辑性,像有自己的思考。 2. 多模态能力:ChatGPT3.5 是纯语言模型,新一代 GPT 将是多模态模型,能把感官数据与思维时间序列一起作为状态,并装载在人形机器人中,不仅能对话,还能根据看到、听到的事进行判断,甚至想象画面。 3. 超越人类的可能性:有人假设人按最大化“快乐函数”行动,只要“效用函数”足够复杂,AI 可完全定义人,甚至超越人类。如在“短期快乐”与“长期快乐”的取舍上,人类难以找到最优点,而 AI 可通过硬件算力和强化学习算法实现,像 AlphaGo 击败世界冠军,在复杂任务上超越人类。 4. 应用领域:文字类的总结、润色、创意是大语言模型 AI 的舒适区,如从 ChatGPT3.5 问世到 ChatGPT4 提升,再到 Claude 3.5 sonnet 在文学创作领域取得成绩,只要有足够信息输入和合理提示词引导,文案编写可水到渠成。
2025-03-18
一句话阐述推理类模型的原理
推理类模型的原理主要包括以下方面: OpenAI 的推理模型通过强化学习进行训练,以执行复杂推理。此类模型在回答前会思考,能产生长链的思维过程。通过训练,它们学会优化思考过程、尝试不同策略并识别错误,从而遵循特定指南和模型政策,提供更有用的回答,避免产生不安全或不适当的内容。 例如 OpenAI o1 这样的推理模型基于链式思维,逐步推理问题的每个步骤来得到答案。 还有一些概率预测的快速反应模型,通过大量数据训练来快速预测可能的答案。
2025-03-18
推理行大模型对于RAG的准确性提升,带来哪些改变
推理行大模型对 RAG 准确性提升带来了以下改变: 1. 当辅以能有效提取文档中结构化信息并整合为提示词的 PDF 解析器时,大语言模型能作出更准确的响应,提高了提供给模型的数据质量和相关性,从而提升模型输出质量。 2. 大模型应用领域常用的 RAG 方法,能让模型用自定义数据生成结果,处理无尽私有数据,将模型当成高效推理机器。但 RAG 存在一些常见误区: 随意输入任何文档不一定能得到准确回答,RAG 流程中的多个环节都会影响最终质量。 RAG 虽能减少幻觉,但不能完全消除,只要有大模型参与就可能产生幻觉。 RAG 仍消耗大模型的 Token,最终需大模型处理检索结果生成通顺回答。 未来,将研究分享更多基于深度学习的文档解析方法,以更全面理解 RAG 质量和文档解析质量的关系。同时,前沿模型研发团队力争做到吞吐量、速度和准确度的最佳平衡。
2025-03-03