Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我想搜索全面彻底的搜索某方面客观存在的事实信息,有什么工具可以实现

Answer

以下是一些可以用于全面彻底搜索某方面客观存在的事实信息的工具和相关信息:

  • Coze 手搓的极简版 Perplexity:它旨在结合搜索引擎和 LLM 的优势,提供更优的信息检索体验。但 LLM 本身作为知识问答工具存在缺陷,如无法实时获取最新信息、有“幻觉”问题、无法给出准确引用来源等,而搜索引擎返回的信息呈现形式原始,需要进一步处理。
  • 基于嵌入的搜索:OpenAI 提出,如果作为输入的一部分提供,模型可以利用外部信息源,例如通过嵌入实现高效的知识检索。文本嵌入是衡量文本字符串相关性的向量,相似或相关的字符串距离更近,利用快速向量搜索算法,可将文本语料库分割成块进行嵌入和存储,给定查询后进行向量搜索找到最相关的文本块。相关示例实现可在OpenAI Cookbook中找到。关于如何使用知识检索来最小化模型编造错误事实的可能性,可参阅策略“指示模型使用检索到的知识来回答查询”。
Content generated by AI large model, please carefully verify (powered by aily)

References

艾木: 我用Coze手搓了一个极简版Perplexity(基本可以替代Google搜索)

1.首先,LLM的一个很大的缺陷是它无法实时获取最新的信息。它能获取的信息就是预训练时输入的信息,这些信息有一个截断日期,这个日期之后的信息它一概不知(至少无法从模型内部获取到)。而搜索引擎可以获取到更加实时的信息。2.LLM有“幻觉”问题。在缺少相关事实信息的情况下,它就会编造。更严重的是,它很擅长编造,经常编得跟真的一样。而搜索引擎可以检索出相关的信息,这些信息可以作为LLM“推理”的依据。3.LLM无法给出准确的引用来源。LLM吸收了整个互联网的信息,当它回答问题的时候,你会感觉它的回复好像是参考了互联网上的某个地方的内容,但是它无法告诉你它具体引用或者改编的是哪里的内容,因为LLM已经把整个互联网的信息作了词元(token)级别的融合。LLM无法给出引用来源间接带来一个严重问题是,你无法去到信息源,去自己做验证。而搜索引擎可以给予准确的信息源。以上种种问题,决定了LLM本身作为一个知识问答工具是完全不合格的。而搜索引擎的问题则是体验上不够简便、不够直接。搜索引擎返回的信息是一堆链接和文本片段(很多时候还有广告干扰),这种呈现形式是比较原始的,还需要人去做进一步处理。给搜索引擎加上LLM,或许可以带来更优的信息检索体验。Perplexity[4]就是基于这个思路搞出来的产品,目前其估值已经超过5亿美元了,它的目标是要取代Google搜索。这个思路本身没有什么新鲜的,OpenAI早在21年就研究过了[5],后来也有研究者作了进一步的验证[3]。这个思路的技术实现也不复杂,贾扬清大佬用了不到500行Python代码就实现了一个基础版[6]。

沃尔夫勒姆:人工智能能解决科学问题吗?

Exploring Spaces of Systems“Can one find a system that does X?” Say a Turing machine that runs for a very long time before halting.Or a cellular automaton that grows,but only very slowly.Or,for that matter,a chemical with some particular property.“能找到一个能做某事的系统吗?”假设一台图灵机在停止之前运行了很长时间。或者是一个生长的元胞自动机,但生长速度非常缓慢。或者,就此而言,具有某种特定性质的化学物质。This is a somewhat different type of question than the ones we’ve been discussing so far.It’s not about taking a particular rule and seeing what its consequences are.It’s about identifying what rule might exist that has certain consequences.这是一个与我们迄今为止讨论的问题类型有所不同的问题。这并不是要采取特定的规则并看看其后果是什么。这是关于确定可能存在哪些规则会产生某些后果。And given some space of possible rules,one approach is exhaustive search.And in a sense this is ultimately the only “truly unbiased” approach,that will discover what’s out there to discover,even when one doesn’t expect it.Of course,even with exhaustive search,one still needs a way to determine whether a particular candidate system meets whatever criterion one has set up.But now this is the problem of predicting a computation—where the things we said above apply.考虑到一些可能的规则空间,一种方法是穷举搜索。从某种意义上说,这最终是唯一“真正公正”的方法,即使人们没有预料到,它也会发现有待发现的东西。当然,即使进行了详尽的搜索,人们仍然需要一种方法来确定特定的候选系统是否满足人们所建立的任何标准。但现在这是预测计算的问题——我们上面所说的事情都适用。

目录:OpenAI 官方指南

如果作为输入的一部分提供,模型可以利用外部信息源。这可以帮助模型生成更明智和最新的响应。例如,如果用户询问有关特定电影的问题,将有关电影的高质量信息(例如演员、导演等)添加到模型的输入中可能会很有用。嵌入可用于实现高效的知识检索,以便在运行时将相关信息动态添加到模型输入中。文本嵌入是一个向量,可以衡量文本字符串之间的相关性。相似或相关的字符串将比不相关的字符串靠得更近。这一事实以及快速向量搜索算法的存在意味着嵌入可用于实现高效的知识检索。特别是,一个文本语料库可以被分割成块,每个块都可以被嵌入和存储。然后,给定的查询可以被嵌入,可以进行向量搜索,以找到与查询最相关的语料库的嵌入文本块(即,在嵌入空间中最接近的)。可以在[OpenAI Cookbook](https://github.com/openai/openai-cookbook/blob/main/examples/vector_databases/Using_vector_databases_for_embeddings_search.ipynb)中找到示例实现。[有关如何使用知识检索来最小化模型编造](https://platform.openai.com/docs/guides/gpt-best-practices/tactic-instruct-the-model-to-use-retrieved-knowledge-to-answer-queries)错误事实的可能性的示例,请参阅策略“指示模型使用检索到的知识来回答查询”。

Others are asking
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
DeepSeek,里面搜索怎么能出来图片?
要在 DeepSeek 中搜索出图片,您可以参考以下信息: 在即梦 AI 平台上找到 DeepSeek 入口,简单描述您想要的画面,DeepSeek 会生成详细的提示词,将提示词复制到生图功能的输入框,选择 3.0 模型,点击生成。 DeepSeek 使用平台包括 DeepSeek 官网、API(V3 需要为 0324 更新的版本,DS 官网及 API 已更新,如调用其它平台 API 需要查看 DS 版本号)。Deepseek 需要复制代码到 html 文件里,然后保存进行查看。 将下载的 html 文件及图片放到同一个文件夹,让 Cursor 进行图片增加即可。 此外,DeepSeek 深夜发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。其具有统一 Transformer 架构,提供 1B 和 7B 两种规模,全面开源,支持商用,MIT 协议,部署使用便捷,Benchmark 表现优异等特点。模型地址: 模型(7B):https://huggingface.co/deepseekai/JanusPro7B 模型(1B):https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-04-09
ai搜索引擎哪个好
以下是一些推荐的 AI 搜索引擎: 1. 秘塔 AI 搜索:由秘塔科技开发,具有多模式搜索、无广告干扰、结构化展示和信息聚合等功能,能提升用户搜索效率和体验。 2. Perplexity:聊天机器人式搜索引擎,允许用自然语言提问,通过生成式 AI 技术从各种来源收集信息并给出答案。 3. 360AI 搜索:360 公司推出,通过 AI 分析问题,生成清晰有理的答案,支持增强模式和智能排序。 4. 天工 AI 搜索:昆仑万维推出,采用生成式搜索技术,支持自然语言交互和深度追问,未来将支持图像、语音等多模态搜索。 5. Flowith:创新的 AI 交互式搜索和对话工具,基于节点式交互方式,支持多种 AI 模型和图像生成技术,有插件系统和社区功能。 6. Devv:面向程序员的 AI 搜索引擎,专注于提供编程、软件开发和人工智能等领域的专业建议和指导。 7. Phind:专为开发者设计,利用大型语言模型提供相关搜索结果和动态答案,擅长处理编程和技术问题。 做好 AI 搜索引擎的关键在于: 1. 准确度:取决于问答底座模型的智能程度和挂载上下文的信息密度。要选用智能的问答底座模型,并对 RAG 的检索结果进行排序去重以保证信息密度。 2. 差异化创新:错位竞争,如对问答结果以 outline/timeline 等形式输出,支持多模态搜索问答,允许挂载自定义信息源等策略。 3. 具备“准/快/稳”的特点:回复结果要准,响应速度要快,服务稳定性要高。 在使用 AI 搜索引擎时需注意: 1. 幻觉风险较高,大多数 AI 搜索引擎未连接到互联网。 2. 必应通常是较好的选择,特别是在某些特定场景下,如技术支持、决定吃饭地点或获取建议等,必应可能比谷歌更好。但这是一个迅速发展的领域,使用时应小心。对于儿童,可汗学院的 Khanmigo 提供由 GPT4 驱动的良好的人工智能驱动辅导。
2025-04-09
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
小白不懂MCP,请搜索waytoAGI中与智能体相关的内容(特别是视频形式的)让我来学习
以下是为您整理的关于 MCP 的相关内容: 一、什么是 MCP MCP(Model Context Protocol)是一种通用的方式,向各类大语言模型提供数据源和工具。它是一个开放协议,用于标准化应用程序向大语言模型提供上下文的方式。可以将 MCP 想象成 AI 应用程序的 USBC 接口,为 AI 模型连接不同的数据源和工具提供了标准化方式。 二、相关文章的写作目的和探讨内容 1. 作者因在 WaytoAGI 社区阅读了他人优秀文章,决定逼自己做输出,对自我学习进行总结。 2. 文章从作者自身疑问出发,通过动手实践的方式探索:利用自然语言交互,大模型为什么会调用 MCP 工具;大模型调用 MCP 工具,从客户端到服务端发生了什么;安装了类似 MCP 工具,大模型如何选择用哪一个。 三、MCP 和 AI 工具的未来 自 OpenAI 发布函数调用以来,思考解锁智能体和工具使用生态系统所需条件。MCP 于 2024 年 11 月推出,在开发者和 AI 社区中已获广泛关注,被视为潜在解决方案。探讨了其如何改变 AI 与工具的交互方式、开发人员的使用情况及仍需解决的挑战。 四、MCP 小白图文使用教程 MCP 服务器有三大核心功能: 1. 资源:是服务器提供给 AI 的数据内容,如文件、数据库结构或特定信息,每个资源通过唯一 URI 标识。 2. 工具:允许 AI 模型执行特定操作,如查询数据库、调用 API 或执行计算,每个工具由名称和描述其模式的元数据唯一标识。 3. 提示:提供结构化消息和指令,用于与语言模型交互,客户端可以发现可用提示、检索其内容并提供参数进行自定义。 希望以上内容对您有所帮助。
2025-04-08
如何搜索知识库
以下是关于知识库搜索的相关信息: 知识库搜索网址:https://search.atomecho.cn/ Coze 中工作流配置知识库: 添加知识库:可同时添加多个知识库。 参数设置: 搜索策略:包括语义检索(像人类一样理解词与词、句与句之间的关系,适用于需要理解语义关联度和跨语言查询的场景)、全文检索(基于关键词进行,适用于特定名称、专有名词、术语、缩写词、ID 等场景)、混合检索(结合全文检索和语义检索的优势,并对结果进行综合排序召回相关内容片段)。 最大召回数量:选择从检索结果中返回给大模型使用的内容片段数量,数值越大,返回的越多。 最小匹配度:根据设置的匹配度选取要返回给大模型的内容片段,低于设定匹配度的内容不会被返回。 提示:最大召回数量和最小匹配度直接影响输出效果,需进行协调的多轮测试找出最优值。 认识大模型 Embedding 技术加实战中: Embedding 增强 GPT 的能力的过程包括搜索内部知识库检索相关文本、将检索到的文本内容部分发送给 GPT 大模型并向其提出问题。 具体操作步骤: 准备搜索数据(仅一次):搜集数据、切块、嵌入、存储(对于大型数据集的 Embedding 结果,可使用向量数据库保存)。 搜索(每次查询一次):给定用户问题,从 OpenAI API 生成查询的 embeddings,使用 embeddings 按照与查询相关性对文本部分进行排序,距离函数推荐使用余弦相似性。 提问(每次查询一次):将问题和最相关的部分插入到发送给 GPT 的消息中返回 GPT 的答案。 Embedding 的作用:搜索(结果按与查询字符串的相关性进行排名)、聚类(文本字符串按相似性分组)、建议(建议包含相关文本字符串的项目)、异常检测(识别出相关性很小的离群值)、多样性测量(分析相似性分布)、分类(文本字符串按其最相似的标签分类)。
2025-04-08
1、Puzzle 选择一个你(们)感兴趣的社会问题或者现象。 “赛博信仰”指在网络环境下衍生的一系列超现实、寄托心理期许的新兴文化现象。这种现象反映了人们在数字化时代中对精神寄托、心理安慰和未来预测的需求。赛博信仰不仅是一种文化现象,也反映了现代社会中人们对科技、信仰和现实之间关系的重新思考。 2、Facts 关于这个问题/现象,都有哪些基本事实? 比如有人购买电子形式的马克思、爱因斯坦的脑子,象征着对智慧的渴望;借助塔罗测试程序、deepseek算命等AI工具,尝试预知命运;夸赞鹿童、转发锦鲤
关于“赛博信仰”这一现象,目前所了解到的基本事实包括:有人购买电子形式的马克思、爱因斯坦的脑子以象征对智慧的渴望;借助塔罗测试程序、deepseek 算命等 AI 工具尝试预知命运;夸赞鹿童、转发锦鲤等。但目前掌握的相关事实相对有限,还需要进一步的研究和观察来更全面地了解这一现象。
2025-03-13
总结一下大模型数据发展的最新趋势,基于历史的事实和数据总结23年以来发生了什么,25年可能发生什么
以下是关于大模型数据发展趋势的总结: 2023 年以来: 大量创新大模型架构涌现,尝试在保留 Transformer 优势的同时解决其算力开销太高的问题,对 Transformer 的绝对统治地位形成有力挑战。 多种有代表性的技术路径出现,如类循环神经网络模型(以 RWKV 为代表)、状态空间模型(以 Mamba 为代表)、层次化卷积模型(以 UniRepLKNet 为代表)、多尺度保持机制模型(以 RetNet 为代表)、液体神经网络模型(以 LFM 为代表)等。这些模型在不同程度保留 Transformer 架构优势的基础上,结合 RNN、CNN 等思想做出创新发展,使得大模型架构呈现出日益明显的混合趋势,更多创新架构具备“博采众家之长”的特点。 对于 2025 年的预测,由于目前的信息有限,难以给出确切的预测。但可能会在现有创新架构的基础上进一步优化和融合,出现更高效、更强大且更具通用性的大模型架构,同时可能在技术应用和行业落地方面取得更显著的成果。
2025-01-16
数智技术与教学何以深度融合,从事实性知识学习,程序性知识学习,动机性参与三个角度说明
数智技术与教学的深度融合可以从以下三个角度进行说明: 事实性知识学习方面:数智技术能够以丰富多样的形式呈现事实性知识,如通过多媒体资源(如动画、视频、交互式图表等),使抽象的知识变得更加直观和生动,有助于学生更好地理解和记忆。同时,在线学习平台和教育软件可以提供大量的事实性知识资源,方便学生随时查阅和学习。 程序性知识学习方面:利用智能辅导系统和虚拟实验室等工具,为学生提供实践和练习的机会,帮助他们熟练掌握解决问题的步骤和方法。数智技术还能实时反馈学生的操作过程和结果,让他们及时发现错误并进行纠正,从而提高程序性知识的学习效果。 动机性参与方面:借助游戏化元素和社交学习平台,增加学习的趣味性和互动性,激发学生的学习兴趣和积极性。个性化的学习推荐和自适应学习系统能够根据学生的特点和需求提供定制化的学习内容,增强学生的学习动力和参与度。 总之,数智技术在事实性知识学习、程序性知识学习和动机性参与这三个角度都能发挥重要作用,促进教学的深度融合和优化。
2024-11-30