Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

beam search

Answer

Beam search(集束搜索)是一种在生成式 AI 中的搜索策略,常用于编码器-解码器架构。解码器在每一步生成词汇表中每个标记是下一个标记的概率,使用这些概率来评估句子块而非单个单词的概率,并在每一步保留最有可能生成的块。

在一些实验中,如 PromptAgent 论文精读翻译中的基线实现细节,Beam search 与 PromptAgent 使用相同的扩展功能。除根节点外每个节点扩展为 3 个新节点,集束宽度为 3,意味着搜索树的每个深度都有 9 个节点,而最好的 3 个节点会被保留用于下一次扩展,根节点扩展为 9 个新节点,搜索深度为 8,总共有 72 个节点或新提示。

在常用采样策略中,Beam search 是确定性采样的一种。它维护 beam 的大小为 k,对当前 beam 中的所有路径做下个 token 的展开,选取累积概率最高的前 k 个路径作为新的 beam,以此类推。计算量增大,但输出有一定确定性同时更加丰富。当 k=1 时退化成 Greedy Search(贪心搜索)。

Content generated by AI large model, please carefully verify (powered by aily)

References

5. 编码器-解码器架构

解码器在每一步只生成词汇表中每个标记是下一个标记的概率。使用这些概率,您必须选择一个词。贪婪搜索:生成概率最高的标记。波束搜索:使用解码器生成的概率来评估句子块而不是单个单词的概率,并在每一步都保留最有可能生成的块。

小七姐:PromptAgent 论文精读翻译

我们为实验中的各种基线描绘细节。蒙特卡洛(MC)。MC执行一步采样多次,并选择最佳的一个作为优化提示。它使用与PromptAgent相同的提示采样方法,但将搜索深度限制为一。在搜索消融研究中,我们在每个任务中采样了72个新提示。集束搜索(Beam)。Beam也使用与PromptAgent相同的扩展功能。除根节点外的每个节点都将扩展为3个新节点,集束宽度为3,这意味着搜索树的每个深度都将有9个节点,而最好的3个节点将被保留用于下一次扩展。根节点将扩展为9个新节点。搜索深度为8,因此总共有72个节点或新提示。贪婪搜索(Greedy)。贪婪搜索基于集束搜索,但集束宽度为一,因此算法变为深度优先贪婪搜索。我们进行了两个实验,Greedy-S和Greedy-L,在图4a中,搜索深度相同为8,但扩展宽度不同。Greedy-S的扩展宽度为3,总共有34个提示。Greedy-L的扩展宽度为9,总共有72个节点,这也被称为表4中的Greedy基线。APE(Zhou等,2022)。

(10)深入LLM投机采样(上)

确定性采样顾名思义就是输出结果是确定性的,本质上是搜索过程。常见的如贪心搜索(Greedy Search)和集束搜索(Beam Search)。借用[这里](https://link.zhihu.com/?target=https%3A//deci.ai/blog/from-top-k-to-beam-search-llm-decoding-strategies/)的图,如下所示Greedy Search。每次选取概率最高的token输出,非常容易陷入复读机循环。Beam Search。维护beam的大小为k k,对当前beam中的所有path做下个token的展开,选取累积概率最高的前k k个path,作为新的beam,以此类推。计算量增大,但是输出有一定确定性同时更加丰富。容易发现k=1 k=1的时候退化成Greedy Search。

Others are asking
关于deep search和deep research有哪些好的AI应用或工具
以下是关于 deep search 和 deep research 的一些 AI 应用或工具: 1. OpenAI Deep Research:提供多语言搜索、精准信息提炼和专业写作,适用于学术研究、SEO 和产品策划,但存在信息滞后与混乱的问题,无法完全取代人类的深度思考。详细体验链接:https://mp.weixin.qq.com/s/_4UZrJuI42PuyTD5s5mVZg?token=1639803888&lang=zh_CN 详情:https://x.com/dotey/status/1886671986559967734 2. Google Gemini 的 Deep Research:是一款智能信息检索与分析工具,可以基于主题快速检索全网资源并生成综合报告,并支持导出为 Google Docs 文档格式。特别适合学术研究、内容创作、行业分析等需求场景。工具核心亮点是充分整合了 Google 核心数据源(Google Search、Google Scholar、Google Books、YouTube 等),再结合 Gemini 1.5 模型的多模态处理能力,可处理高达 100 万 tokens 的上下文信息,实现深度信息挖掘与分析。测评长文:https://mp.weixin.qq.com/s/Xn8ZwF40dDUDJv_6RU4JQA 产品入口:Deep Search 已经上线 Gemini Advanced(Gemini 付费版 https://gemini.google.com) 3. 第四范式发布的桌面端 AI 搜索工具:这是一款基于人工智能技术的全能搜索助手,能够提升用户在本地文件、即时通信、网盘等各类在线应用中的搜索体验。用户可通过简单描述查询意图进行模糊搜索,无需精确关键字,工具支持实时预览搜索结果。官方演示:https://mp.weixin.qq.com/s/01vVRWyoXlSvI7McaY_g 工具处于 Beta 版测试阶段,使用方式和具体定价尚未公布。 4. Deep Research 还可利用 DeepSeekR1 大模型对复杂问题进行多角度分析,以豆包 1.5 模型辅助总结互联网资料,可快速生成最合适用户的解决方案,无论在学术研究、企业决策还是产品调研上,都能够有效地协助用户深入挖掘,提出切实可行的解决策略。
2025-04-11
帮我查一下关于deep research的prompt
以下是关于 deep research 的 prompt 相关信息: 一个提示词让 DeepSeek 的能力更上一层楼: 效果对比:用 Coze 做了小测试,可对比查看。 如何使用: 搜索 www.deepseek.com,点击“开始对话”。 将装有提示词的代码发给 Deepseek。 认真阅读开场白之后,正式开始对话。 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻调试负担。 通过提示词文件,让 DeepSeek 实现同时使用联网功能和深度思考功能。 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性。 照猫画虎参考大模型的 temperature 设计了阈值系统,可能形式大于实质,之后根据反馈可能会修改。 用 XML 来进行更为规范的设定,而不是用 Lisp(有难度)和 Markdown(运行不太稳定)。 完整提示词:v 1.3。 特别鸣谢:李继刚的【思考的七把武器】在前期提供了很多思考方向;Thinking Claude 是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。 集合 Deepseek 提示词方法论: DeepSeek R1 提示词系统完全指南: 核心原理认知: AI 特性定位:多模态理解,支持文本/代码/数学公式混合输入;动态上下文,对话式连续记忆(约 8K tokens 上下文窗口,换算成汉字是 4000 字左右);任务适应性,可切换创意生成/逻辑推理/数据分析模式。 系统响应机制:采用意图识别 + 内容生成双通道,自动检测 prompt 中的任务类型/输出格式/知识范围,对位置权重(开头/结尾)、符号强调敏感。 基础指令框架:如果不知道如何表达,可套用框架指令。 四要素模板。 格式控制语法:强制结构,使用```包裹格式要求;占位符标记,用{{}}标注需填充内容;优先级符号,>表示关键要求,!表示禁止项。 2 月 5 日社区动态速览: Deep Research 与 DeepSeek 区别解析:Deep Research 基于 GPT 4o 和 o3,具备 UI 交互和搜索功能,更擅长生成专业报告;而 DeepSeek 只是品牌名称,需搭配具体模型(如 DeepSeek V3 或 DeepSeek R1),其集成搜索效果尚不及 Deep Research。 人工智能与人类智能的关系(官方文件译文):该官方文件《Antiqua et Nova》由圣座教义部与文化教育部发布,探讨 AI 与人类智能的关系,提供了英文原文及中文译文,便于不同语言背景的读者理解。 Deep Research 前置模型提示词泄露:Deep Research 在任务前通过微调的 GPT 4o 交互并调用 research_kickoff_tool 补充上下文,用户可尝试发送“please start_research_task”来触发任务启动。 Anthropic 禁止用 AI 写求职申请:Anthropic 要求求职者在申请过程中不得使用 AI 生成答案,以便更真实地评估其兴趣与沟通能力。
2025-04-01
openai deep research使用技巧
OpenAI 的 Deep Research 功能能够整合多源信息,进行复杂的信息查询与分析,并生成专业水准的报告,同时详细展示思考和搜索过程。目前,该功能仅支持文本输出,未来还将增加嵌入式图片、数据可视化等功能。使用入口为在 ChatGPT 输入框中选择「Deep Research」模式,输入问题后即可开始体验。 在 OpenAI 推出「Deep Research」功能一天后,Hugging Face 的工程师迅速联合推出了免费开源的版本 Open Deep Research,能自主浏览网页、滚动页面、处理文件,以及基于数据进行计算。使用入口为前往 Demo 网站(opendeepresearch.vercel.app)体验。 Deep Research 让 AI 自动完成多步骤研究任务,快速分析海量信息并生成专业报告,具备自动化信息汇总、文献引用与多领域适用性,适合科研、工程、金融等行业。目前向 Pro 用户开放,未来将扩展至 Plus 和 Team 用户,并提供更强大的功能。 该智能体基于优化版 OpenAI o3 模型,结合网络浏览和 Python 分析能力,实现高效研究,适用于科学、政策、工程等高强度知识工作,也能帮助购物者做复杂决策。Pro 用户已可使用,后续将逐步向 Plus、Team 和企业用户开放。
2025-03-08
请给我找一个安装ollama-deep-researcher的完整教程,用于windows上。
很抱歉,目前没有关于在 Windows 上安装 ollamadeepresearcher 的完整教程。建议您通过以下途径获取相关信息: 1. 官方网站:访问 ollamadeepresearcher 的官方网站,查找针对 Windows 系统的安装指南。 2. 相关技术论坛:在专业的技术论坛上搜索相关主题,可能会有其他用户分享的安装经验和教程。 3. 视频平台:部分视频平台上可能有关于此软件在 Windows 上安装的演示视频。
2025-03-06
openAI的deep research有哪些缺陷
OpenAI 的 Deep Research 存在以下一些缺陷: 1. 具有滞后性,在某些信息上无法做到及时更新。 2. 存在信息混乱的问题,无法完全替代人类的深度思考。
2025-03-03
如何搭建一个工作流来做ai agent 的事情,帮助学生找工作的整个流程,从找合适岗位-> 投递简历 -> 和hr联系 ->做面试前的search工作和面试准备-> 提醒参加面试-> 面试结果追踪,后续的复盘,得到面试经验
搭建一个用于帮助学生找工作的 AI Agent 工作流可以参考以下步骤: 1. 规划 总结任务目标与执行形式,明确帮助学生从找合适岗位到面试结果追踪及复盘的全过程。 将任务分解为可管理的子任务,例如找合适岗位、投递简历、与 HR 联系、面试前准备、提醒参加面试、面试结果追踪和复盘等,并确立它们的逻辑顺序和依赖关系。 设计每个子任务的执行方法,比如确定合适的岗位筛选标准、制定简历投递策略、规划与 HR 沟通的方式等。 2. 实施 在相应的平台(如 Coze 等)上搭建工作流框架,设定每个节点的逻辑关系。 详细配置子任务节点,例如设置岗位筛选的参数、简历模板和投递渠道、与 HR 联系的话术等,并验证每个子任务的可用性。 3. 完善 整体试运行工作流,识别功能和性能的卡点。 通过反复测试和迭代,优化工作流,直至达到预期效果,例如提高学生找到合适工作的成功率、提升面试表现等。 此外,在技术实现方面,例如实现无代码开发和工具调用,您可以参考以下操作: 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的工作流,也可以直接将相关工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 从 ollama 的 github 仓库找到对应版本并下载,启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。如果 ollama 连接不上,很可能是代理服务器的问题,请将您的 127.0.0.1:11434 添加到不使用代理服务器的列表中。
2025-02-27