直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

AI搜索工程架构

回答

以下是关于 AI 搜索工程架构的相关内容:

一、可插拔架构 在整个搜索回答的全流程,有很多节点可以做 Hook 埋点,每个 Hook 可以挂载零至多个插件,多个插件构成了 AI 搜索的可插拔架构。一些常用的功能,可以由 AI 搜索平台自身或第三方创作者抽离成标准插件,用在 AI 搜索主流程或者智能体/工作流等辅助流程。比如,自定义一个思维导图摘要插件,用户可以在搜索的步骤中选择这个自定义插件,实现用思维导图输出搜索结果。

二、提升可玩性 可以预置一个 after_answer 钩子,在大模型回答完用户 query 之后,把请求大模型的上下文信息和大模型的回答内容一起发给第三方插件,第三方插件可以把内容整理成文章/思维导图等格式,再同步到第三方笔记软件。

三、自定义智能体 Agent 智能体一般是对一些自定义操作的封装,用于解决某个场景的某类问题。以 ChatGPT 的 GPTs 举例,一个智能体应用由以下几部分自定义操作组成:

  1. 提示词:描述智能体的作用,定义智能体的回复格式。
  2. 知识库:上传私有文件作为回答参考。
  3. 外挂 API:请求第三方 API 获取实时数据。
  4. 个性化配置:是否联网/是否使用图片生成/是否使用数据分析等。

四、提升准确度

  1. 为获取足够信息密度,需获取链接详情页内容。通过上一步的 Reranking 选择最匹配的 top_k 条数据,避免获取全部内容导致 context 超限。为保证获取详情内容的效率,可做并行处理,如通过 goroutine 或者 python 的协程并行读取 top_k 条链接。获取链接详情内容有多种方案,如网页爬虫、无头浏览器抓取、第三方 Reader 读取等。
  2. 构建上下文内容池 Context Pool,将历史搜索结果和历史对话消息组成 Context Pool。每次搜索后追问,都带上这个 Context Pool 做意图识别/问题改写,拿到新的检索结果后更新这个 Context Pool,并带上最新的 Context Pool 内容作为上下文请求大模型回答。需要保证 Context Pool 的内容有较高的信息密度,同时控制其内容长度,不要超过大模型的 context 极限。

五、检索增强生成 (RAG) 以 Sana 的企业搜索用例为例,RAG 过程始于应用程序加载和转换无结构文件,转换为 LLM 可查询格式,文件被“分块”成更小的文本块,并作为向量嵌入和存储在数据库中。当用户提出问题时,系统会检索语义上最相关的上下文块,并将其折叠到“元提示”中,与检索到的信息一起馈送给 LLM,然后 LLM 合成答复返回给用户。在生产中,AI 应用程序具有更复杂的应用程序流程,包含多个检索步骤和提示链,不同类型的任务并行执行,然后将结果综合在一起,以生成最终输出。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

工具:我做了一个 AI 搜索引擎

[title]工具:我做了一个AI搜索引擎[heading1]ThinkAny是如何冷启动的[heading2]AI搜索如何提升可玩性比如,可以预置一个after_answer钩子,在大模型回答完用户query之后,把请求大模型的上下文信息和大模型的回答内容一起发给第三方插件,第三方插件可以把内容整理成文章/思维导图等格式,再同步到第三方笔记软件。在整个搜索回答的全流程,有很多节点可以做Hook埋点,每个Hook可以挂载零至多个插件,多个插件构成了AI搜索的可插拔架构,这套架构让AI搜索的全流程变得高度可定制,可玩性更高。一些常用的功能,可以由AI搜索平台自身或第三方创作者抽离成标准插件,用在AI搜索主流程或者智能体/工作流等辅助流程。比如,自定义一个思维导图摘要插件,输入内容是一段文本,输出内容是基于toc(table of contents)构成的思维导图。用户可以在搜索的步骤中选择这个自定义插件,实现用思维导图输出搜索结果。1.自定义智能体Agent智能体是现阶段ChatBot类产品经常用到的一种辅助产品形态。智能体一般是对一些自定义操作的封装,用于解决某个场景的某类问题。以ChatGPT()的GPTs举例,一个智能体应用由以下几部分自定义操作组成:提示词:描述智能体的作用,定义智能体的回复格式知识库:上传私有文件作为回答参考外挂API:请求第三方API获取实时数据个性化配置:是否联网/是否使用图片生成/是否使用数据分析等AI搜索的智能体也大体如此,外挂API的操作实际上就是挂载自定义信息源做检索。

工具:我做了一个 AI 搜索引擎

[title]工具:我做了一个AI搜索引擎[heading1]ThinkAny是如何冷启动的[heading2]AI搜索如何提升准确度很多的信息源(比如谷歌)返回的检索结果,只包含链接+摘要信息。如果要保证足够的信息密度,免不了要获取链接对应的详情页内容(Read Content)。上一步的Reranking让我们可以选择其中最匹配的top_k条数据,而不至于获取全部内容导致context超限。为了保证获取详情内容的效率,我们需要做一定的并行处理。比如通过goroutine或者python的协程并行读取top_k条链接,在一次请求耗时内拿到top_k条链接的全部内容。获取链接详情内容有很多方案,包括网页爬虫/无头浏览器抓取/第三方Reader读取等。ThinkAny目前使用的是jina.ai的Reader方案。做了一个开关,控制是否获取链接详情,为了保证响应速度,线上的版本暂时未开。1.构建上下文内容池Context Pool提高AI搜索的准确度,上下文的控制也是一个非常重要的手段。比如可以构建一个上下文内容池(Context Pool)=历史搜索结果(Search Results)+历史对话消息(Chat Messages)每次搜索后追问,都带上这个Context Pool做意图识别/问题改写,拿到新的检索结果后更新这个Context Pool,并带上最新的Context Pool内容作为上下文请求大模型回答。Context Pool里的Search Results可以根据链接做去重,Chat Messages可以根据相似度匹配做过滤。需要保证Context Pool的内容有较高的信息密度,同时要控制Context Pool的内容长度,不要超过大模型的context极限。对Context Pool的构建和动态更新,是一个非常有挑战性的事情,如果能做好,对搜索结果的准确度提升也能起到非常大的帮助。1.提示词工程Prompt Engineering

AI 智能体:企业自动化的新架构 - Menlo Ventures

设置基线:RAG是当今大多数现代人工智能应用程序的标准架构。让我们以Sana的企业搜索用例为例,了解它在幕后的工作原理。该过程始于应用程序加载和转换无结构文件(如PDF、幻灯片、文本文件)跨越企业数据孤岛,如Google Drive和Notion,转换为LLM可查询格式,通常通过像[Unstructured](https://menlovc.com/portfolio/unstructured/)*这样的数据预处理引擎进行。这些文件现在被"分块"成更小的文本块,以实现更精确的检索,并作为向量嵌入和存储在像[Pinecone](https://menlovc.com/portfolio/pinecone/)*这样的数据库中。当用户向AI应用程序提出问题时(例如,"总结我与公司X会议的所有笔记"),系统会检索语义上最相关的上下文块,并将其折叠到"元提示"中,与检索到的信息一起馈送给LLM。然后,LLM会从检索到的上下文中合成一个整洁的带有项目符号的答复返回给用户。当然,该图仅说明了一个带有一个LLM调用的单一检索步骤。在生产中,AI应用程序具有更复杂的应用程序流程,包含数十甚至数百个检索步骤。这些应用程序通常具有"提示链",其中一个检索步骤的输入馈送到下一步,并且不同类型的任务并行执行多个"提示链"。然后将结果综合在一起,以生成最终输出。[Eve](https://menlovc.com/portfolio/eve/)*法律研究的共同驾驭员,例如,可能会将针对《第七篇》的研究查询分解为专注于预定子主题的独立提示链,如雇主背景、就业历史、《第七篇》、相关案例法和原告案件支持证据。LLMs然后运行每个提示链,为每个生成中间输出,并综合各输出编写最终备忘录。

其他人在问
如何让企业微信可以接上 AI?让我的企业微信号变成一个 AI 客服
要让企业微信接上 AI 并变成一个 AI 客服,可以参考以下内容: 1. 基于 COW 框架的 ChatBot 实现方案:这是一个基于大模型搭建的 Chat 机器人框架,可以将多模型塞进微信(包括企业微信)里。张梦飞同学写了更适合小白的使用教程,链接为: 。 可以实现打造属于自己的 ChatBot,包括文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等功能,以及常用开源插件的安装应用。 正式开始前需要知道:本实现思路需要接入大模型 API 的方式实现(API 单独付费)。 风险与注意事项:微信端因为是非常规使用,会有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求,禁止将此操作用于任何非法目的,处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等;多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等等;多消息类型支持,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能;多部署方法,如本地运行、服务器运行、Docker 的方式。 2. DIN 配置:先配置 FastGpt、OneAPI,装上 AI 的大脑后,可体验知识库功能并与 AI 对话。新建应用,在知识库菜单新建知识库,上传文件或写入信息,最后将拥有知识库能力的 AI 助手接入微信。
2025-05-09
围棋AI
围棋 AI 领域具有重要的研究价值和突破。在古老的围棋游戏中,AI 面临着巨大挑战,如搜索空间大、棋面评估难等。DeepMind 团队通过提出全新方法,利用价值网络评估棋面优劣,策略网络选择最佳落子,且两个网络以人类高手对弈和 AI 自我博弈数据为基础训练,达到蒙特卡洛树搜索水平,并将其与蒙特卡洛树搜索有机结合,取得了前所未有的突破。在复杂领域 AI 第一次战胜人类的神来之笔 37 步,也预示着在其他复杂领域 AI 与人类智能对比的进一步突破可能。此外,神经网络在处理未知规则方面具有优势,虽然传统方法在处理象棋问题上可行,但对于围棋则困难重重,而神经网络专门应对此类未知规则情况。关于这部分内容,推荐阅读《这就是 ChatGPT》一书,其作者备受推崇,美团技术学院院长刘江老师的导读序也有助于了解 AI 和大语言模型计算路线的发展。
2025-05-08
什么AI工具可以实现提取多个指定网页的更新内容
以下 AI 工具可以实现提取多个指定网页的更新内容: 1. Coze:支持自动采集和手动采集两种方式。自动采集包括从单个页面或批量从指定网站中导入内容,可选择是否自动更新指定页面的内容及更新频率。批量添加网页内容时,输入要批量添加的网页内容的根地址或 sitemap 地址然后单击导入。手动采集需要先安装浏览器扩展程序,标注要采集的内容,内容上传成功率高。 2. AI Share Card:能够一键解析各类网页内容,生成推荐文案,把分享链接转换为精美的二维码分享卡。通过用户浏览器,以浏览器插件形式本地提取网页内容。
2025-05-01
AI文生视频
以下是关于文字生成视频(文生视频)的相关信息: 一些提供文生视频功能的产品: Pika:擅长动画制作,支持视频编辑。 SVD:Stable Diffusion 的插件,可在图片基础上生成视频。 Runway:老牌工具,提供实时涂抹修改视频功能,但收费。 Kaiber:视频转视频 AI,能将原视频转换成各种风格。 Sora:由 OpenAI 开发,可生成长达 1 分钟以上的视频。 更多相关网站可查看:https://www.waytoagi.com/category/38 。 制作 5 秒单镜头文生视频的实操步骤(以梦 AI 为例): 进入平台:打开梦 AI 网站并登录,新用户有积分可免费体验。 输入提示词:涵盖景别、主体、环境、光线、动作、运镜等描述。 选择参数并点击生成:确认提示词无误后,选择模型、画面比例,点击「生成」按钮。 预览与下载:生成完毕后预览视频,满意则下载保存,不理想可调整提示词再试。 视频模型 Sora:OpenAI 发布的首款文生视频模型,能根据文字指令创造逼真且充满想象力的场景,可生成长达 1 分钟的一镜到底超长视频,视频中的人物和镜头具有惊人的一致性和稳定性。
2025-04-20
Ai在设备风控场景的落地
AI 在设备风控场景的落地可以从以下几个方面考虑: 法律法规方面:《促进创新的人工智能监管方法》指出,AI 的发展带来了一系列新的安全风险,如对个人、组织和关键基础设施的风险。在设备风控中,需要关注法律框架是否能充分应对 AI 带来的风险,如数据隐私、公平性等问题。 趋势研究方面:在制造业中,AI Agent 可用于生产决策、设备维护、供应链协调等。例如,在工业设备监控与预防性维护中,Agent 能通过监测传感器数据识别异常模式,提前通知检修,减少停机损失和维修成本。在生产计划、供应链管理、质量控制、协作机器人、仓储物流、产品设计、建筑工程和能源管理等方面,AI Agent 也能发挥重要作用,实现生产的无人化、决策的数据化和响应的实时化。
2025-04-20
ai视频
以下是 4 月 11 日、4 月 9 日和 4 月 14 日的 AI 视频相关资讯汇总: 4 月 11 日: Pika 上线 Pika Twists 能力,可控制修改原视频中的任何角色或物体。 Higgsfield Mix 在图生视频中,结合多种镜头运动预设与视觉特效生成视频。 FantasyTalking 是阿里技术,可制作角色口型同步视频并具有逼真的面部和全身动作。 LAM 开源技术,实现从单张图片快速生成超逼真的 3D 头像,在任何设备上快速渲染实现实时互动聊天。 Krea 演示新工具 Krea Stage,通过图片生成可自由拼装 3D 场景,再实现风格化渲染。 Veo 2 现已通过 Gemini API 向开发者开放。 Freepik 发布视频编辑器。 Pusa 视频生成模型,无缝支持各种视频生成任务(文本/图像/视频到视频)。 4 月 9 日: ACTalker 是多模态驱动的人物说话视频生成。 Viggle 升级 Mic 2.0 能力。 TestTime Training在英伟达协助研究下,可生成完整的 1 分钟视频。 4 月 14 日: 字节发布一款经济高效的视频生成基础模型 Seaweed7B。 可灵的 AI 视频模型可灵 2.0 大师版及 AI 绘图模型可图 2.0 即将上线。
2025-04-20
我想寻找一个AI模型,能快速读懂视频,并总结成为知识架构的应用或网站
以下为您推荐能快速读懂视频并总结成为知识架构的应用或网站: 百炼大模型平台:其影视传媒视频理解能力可对视频进行语音转写、视觉语言分析等处理并总结成文,有清晰使用步骤,可生成爆款文案,还能根据偏好调试提示词。2025 年 1 月 9 号更新的模型可通过 API 调用纹身 AI 等,Windows 用户可在左下角开始运行输入命令提示符进行本地调用,但生成过程较缓慢。 应用场景:包括商品信息图片生成淘宝上架规格参数、智能手表文案生成、社交媒体内容生成、合同提取、拍照搜题、图片转换、模特换装等。 提供 AI 硬件底层能力,AI 拍立得相机拍照可快速成诗并打印,其对接多模态能力可通过智能体应用或工作流形式的 API 调用。 开源使用:有开源地址,可下载到本地,配置阿里云百炼平台的 API key 及 appid 实现场景,运行项目需特定 Python 包和依赖,可新建应用获取 appid,拍照时需设置 API key。 此外,关于 AI 技术原理与框架的相关知识: 生成式 AI 生成的内容称为 AIGC。 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,电脑通过找规律进行学习。 监督学习使用有标签的训练数据,目标是学习输入和输出之间的映射关系,包括分类和回归。 无监督学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习从反馈里学习,最大化奖励或最小化损失,类似训小狗。 深度学习参照人脑有神经网络和神经元,因层数多称为深度,神经网络可用于监督学习、无监督学习、强化学习。 生成式 AI 可以生成文本、图片、音频、视频等内容形式。 LLM 即大语言模型,生成图像的扩散模型不属于大语言模型,对于大语言模型,生成只是其中一个处理任务,如谷歌的 BERT 模型可用于语义理解(不擅长文本生成),如上下文理解、情感分析、文本分类。 技术里程碑:2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它完全基于自注意力机制处理序列数据,无需依赖循环神经网络或卷积神经网络。
2025-04-09
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
有没有什么可以帮助产品自动生成功能架构图的AI工具
以下是一些可以帮助产品自动生成功能架构图的 AI 工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源的建模语言,专门用于企业架构,支持逻辑视图的创建,可与 Archi 工具配合使用,该工具提供图形化界面创建模型。 4. Enterprise Architect:强大的建模、设计和生成代码的工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费的在线图表软件,允许创建各种类型的图表,包括逻辑视图和部署视图等。 7. PlantUML:文本到 UML 的转换工具,通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费的开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图的创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。
2025-03-31
深度学习模型架构有哪些
深度学习模型架构主要包括以下几种: 1. Transformer 模型: 由编码器(Encoder)和解码器(Decoder)两大部分组成。 每个部分由多个相同的层堆叠而成,每层包含多头注意力机制(Multihead Attention)和位置全连接前馈网络。 编码器将自然语言转换成向量文本,解码器基于编码器的输出和之前生成的输出逐步生成目标序列。 2. DiT 架构:结合扩散模型和 Transformer 的架构,用于高质量图像生成。 3. 存算一体架构: 是未来 AI 硬件的发展趋势。 运行几百亿个参数的大模型时具有优势,可避免数据搬运。 此外,在端到端算法的时代,有观点认为不应继续使用冯诺依曼架构,且在存算一体的芯片之上,有望诞生全新的算法。在将大模型与私域知识结合方面,有重新训练、微调、RAG、关键词工程、加长 Context 等方法,其中长 Context 和 RAG 被认为较有希望。
2025-03-22
生成组织架构图的AI工具
以下是一些可以生成组织架构图的 AI 工具: 1. Lucidchart:流行的在线绘图工具,支持多种图表创建,包括逻辑视图、功能视图和部署视图,用户可通过拖放界面轻松创建架构图。 2. Visual Paradigm:全面的 UML 工具,提供创建各种架构视图的功能,如逻辑视图(类图、组件图)、功能视图(用例图)和部署视图(部署图)。 3. ArchiMate:开源建模语言,专门用于企业架构,支持逻辑视图创建,可与 Archi 工具配合使用,该工具提供图形化界面创建 ArchiMate 模型。 4. Enterprise Architect:强大的建模、设计和生成代码工具,支持创建多种架构视图,包括逻辑、功能和部署视图。 5. Microsoft Visio:广泛使用的图表和矢量图形应用程序,提供丰富模板用于创建逻辑视图、功能视图和部署视图等。 6. draw.io(现称为 diagrams.net):免费在线图表软件,允许创建各种类型图表,包括软件架构图,支持创建逻辑视图和部署视图等。 7. PlantUML:文本到 UML 转换工具,可通过编写描述性文本自动生成序列图、用例图、类图等,帮助创建逻辑视图。 8. Gliffy:基于云的绘图工具,提供创建各种架构图的功能,包括逻辑视图和部署视图。 9. Archi:免费开源工具,用于创建 ArchiMate 和 TOGAF 模型,支持逻辑视图创建。 10. Rational Rose:IBM 的 UML 工具,支持创建多种视图,包括逻辑视图和部署视图。 需要注意的是,虽然这些工具可以辅助创建架构视图,但它们不都是基于 AI 的。AI 在绘图工具中的应用通常涉及智能推荐布局、自动生成图表代码或识别图表中的模式和关系。在选择工具时,应考虑您的具体需求,比如是否需要支持特定的建模语言、是否需要与特定的开发工具集成、是否偏好在线工具或桌面应用程序等。
2025-03-17
Transformer 架构
Transformer 架构主要由编码器(Encoder)和解码器(Decoder)两大部分组成。 编码器可以将自然语言转换成向量文本,其内部参数包含了原始信息以及序列内元素间的相互关系。例如,输入“我喜欢猫”,会将自然语言转换成词嵌入向量,如“我”对应,然后通过自注意力机制输出一个表示对输入句子理解的向量序列。 解码器基于编码器的输出和之前生成的输出逐步生成目标序列,将向量文本重新转化成自然语言。例如生成中文句子“我喜欢猫”,解码器接收开始符号,然后逐步根据编码器输出和已生成的词决定生成后续的词。 Transformer 是一种使用注意力机制的编码器解码器模型,其模型架构使得它可以利用多元化的优势,同时处理大量数据,有助于提高机器翻译等应用程序的性能。 此外,Transformer 架构能够并行处理大量数据吞吐,且满足 scaling law,在各个模态和技术栈具有优势,被 OpenAI 广泛使用。使用同样的架构可以复用模型的参数来引导不同技术栈的训练,以及使用一套 infra 框架训练不同的模型。
2025-03-14
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
DeepSeek,里面搜索怎么能出来图片?
要在 DeepSeek 中搜索出图片,您可以参考以下信息: 在即梦 AI 平台上找到 DeepSeek 入口,简单描述您想要的画面,DeepSeek 会生成详细的提示词,将提示词复制到生图功能的输入框,选择 3.0 模型,点击生成。 DeepSeek 使用平台包括 DeepSeek 官网、API(V3 需要为 0324 更新的版本,DS 官网及 API 已更新,如调用其它平台 API 需要查看 DS 版本号)。Deepseek 需要复制代码到 html 文件里,然后保存进行查看。 将下载的 html 文件及图片放到同一个文件夹,让 Cursor 进行图片增加即可。 此外,DeepSeek 深夜发布了大一统模型 JanusPro,将图像理解和生成统一在一个模型中。其具有统一 Transformer 架构,提供 1B 和 7B 两种规模,全面开源,支持商用,MIT 协议,部署使用便捷,Benchmark 表现优异等特点。模型地址: 模型(7B):https://huggingface.co/deepseekai/JanusPro7B 模型(1B):https://huggingface.co/deepseekai/JanusPro1B 下载地址:https://github.com/deepseekai/Janus
2025-04-09
ai搜索引擎哪个好
以下是一些推荐的 AI 搜索引擎: 1. 秘塔 AI 搜索:由秘塔科技开发,具有多模式搜索、无广告干扰、结构化展示和信息聚合等功能,能提升用户搜索效率和体验。 2. Perplexity:聊天机器人式搜索引擎,允许用自然语言提问,通过生成式 AI 技术从各种来源收集信息并给出答案。 3. 360AI 搜索:360 公司推出,通过 AI 分析问题,生成清晰有理的答案,支持增强模式和智能排序。 4. 天工 AI 搜索:昆仑万维推出,采用生成式搜索技术,支持自然语言交互和深度追问,未来将支持图像、语音等多模态搜索。 5. Flowith:创新的 AI 交互式搜索和对话工具,基于节点式交互方式,支持多种 AI 模型和图像生成技术,有插件系统和社区功能。 6. Devv:面向程序员的 AI 搜索引擎,专注于提供编程、软件开发和人工智能等领域的专业建议和指导。 7. Phind:专为开发者设计,利用大型语言模型提供相关搜索结果和动态答案,擅长处理编程和技术问题。 做好 AI 搜索引擎的关键在于: 1. 准确度:取决于问答底座模型的智能程度和挂载上下文的信息密度。要选用智能的问答底座模型,并对 RAG 的检索结果进行排序去重以保证信息密度。 2. 差异化创新:错位竞争,如对问答结果以 outline/timeline 等形式输出,支持多模态搜索问答,允许挂载自定义信息源等策略。 3. 具备“准/快/稳”的特点:回复结果要准,响应速度要快,服务稳定性要高。 在使用 AI 搜索引擎时需注意: 1. 幻觉风险较高,大多数 AI 搜索引擎未连接到互联网。 2. 必应通常是较好的选择,特别是在某些特定场景下,如技术支持、决定吃饭地点或获取建议等,必应可能比谷歌更好。但这是一个迅速发展的领域,使用时应小心。对于儿童,可汗学院的 Khanmigo 提供由 GPT4 驱动的良好的人工智能驱动辅导。
2025-04-09
小白不懂MCP,请搜索waytoAGI中与智能体相关的内容(特别是视频形式的)让我来学习
以下是为您整理的关于 MCP 的相关内容: 一、什么是 MCP MCP(Model Context Protocol)是一种通用的方式,向各类大语言模型提供数据源和工具。它是一个开放协议,用于标准化应用程序向大语言模型提供上下文的方式。可以将 MCP 想象成 AI 应用程序的 USBC 接口,为 AI 模型连接不同的数据源和工具提供了标准化方式。 二、相关文章的写作目的和探讨内容 1. 作者因在 WaytoAGI 社区阅读了他人优秀文章,决定逼自己做输出,对自我学习进行总结。 2. 文章从作者自身疑问出发,通过动手实践的方式探索:利用自然语言交互,大模型为什么会调用 MCP 工具;大模型调用 MCP 工具,从客户端到服务端发生了什么;安装了类似 MCP 工具,大模型如何选择用哪一个。 三、MCP 和 AI 工具的未来 自 OpenAI 发布函数调用以来,思考解锁智能体和工具使用生态系统所需条件。MCP 于 2024 年 11 月推出,在开发者和 AI 社区中已获广泛关注,被视为潜在解决方案。探讨了其如何改变 AI 与工具的交互方式、开发人员的使用情况及仍需解决的挑战。 四、MCP 小白图文使用教程 MCP 服务器有三大核心功能: 1. 资源:是服务器提供给 AI 的数据内容,如文件、数据库结构或特定信息,每个资源通过唯一 URI 标识。 2. 工具:允许 AI 模型执行特定操作,如查询数据库、调用 API 或执行计算,每个工具由名称和描述其模式的元数据唯一标识。 3. 提示:提供结构化消息和指令,用于与语言模型交互,客户端可以发现可用提示、检索其内容并提供参数进行自定义。 希望以上内容对您有所帮助。
2025-04-08
如何搜索知识库
以下是关于知识库搜索的相关信息: 知识库搜索网址:https://search.atomecho.cn/ Coze 中工作流配置知识库: 添加知识库:可同时添加多个知识库。 参数设置: 搜索策略:包括语义检索(像人类一样理解词与词、句与句之间的关系,适用于需要理解语义关联度和跨语言查询的场景)、全文检索(基于关键词进行,适用于特定名称、专有名词、术语、缩写词、ID 等场景)、混合检索(结合全文检索和语义检索的优势,并对结果进行综合排序召回相关内容片段)。 最大召回数量:选择从检索结果中返回给大模型使用的内容片段数量,数值越大,返回的越多。 最小匹配度:根据设置的匹配度选取要返回给大模型的内容片段,低于设定匹配度的内容不会被返回。 提示:最大召回数量和最小匹配度直接影响输出效果,需进行协调的多轮测试找出最优值。 认识大模型 Embedding 技术加实战中: Embedding 增强 GPT 的能力的过程包括搜索内部知识库检索相关文本、将检索到的文本内容部分发送给 GPT 大模型并向其提出问题。 具体操作步骤: 准备搜索数据(仅一次):搜集数据、切块、嵌入、存储(对于大型数据集的 Embedding 结果,可使用向量数据库保存)。 搜索(每次查询一次):给定用户问题,从 OpenAI API 生成查询的 embeddings,使用 embeddings 按照与查询相关性对文本部分进行排序,距离函数推荐使用余弦相似性。 提问(每次查询一次):将问题和最相关的部分插入到发送给 GPT 的消息中返回 GPT 的答案。 Embedding 的作用:搜索(结果按与查询字符串的相关性进行排名)、聚类(文本字符串按相似性分组)、建议(建议包含相关文本字符串的项目)、异常检测(识别出相关性很小的离群值)、多样性测量(分析相似性分布)、分类(文本字符串按其最相似的标签分类)。
2025-04-08
调教ai的利器,提示词工程
提示词工程是调教 AI 的重要手段,以下是关于提示词工程的相关知识: 作用:避免 AI 掉入“幻觉”陷阱,引导 AI 生成更可靠的内容。 原理:AI 对提示词的理解能力与幻觉的产生密切相关,清晰、具体的提示词能帮助其更好地理解意图,减少错误。 技巧: 明确要求 AI 引用可靠来源,如在询问历史事件时要求引用权威文献,询问科学事实时要求引用科研论文,询问法律条款时要求引用官方文件。 要求 AI 提供详细的推理过程,如询问数学公式时展示推导过程,询问代码功能时逐行解释含义。 明确限制 AI 的生成范围,如询问名人名言时指定名人姓名和相关主题,询问新闻事件时指定时间范围和关键词。 通过这些清晰、具体、有针对性的提示词技巧,可以引导 AI 生成更准确和可靠的内容。但提示词工程只是辅助手段,从根本上解决 AI 幻觉问题还需从数据、模型、训练方法等多方面努力。 提示词工程就像与博学但有点固执的老教授交流,精心设计输入文本能引导 AI 更好地理解需求并给出更准确有用的回答。比如,问“请用简单的语言,为一个 10 岁的小朋友解释什么是人工智能,并举一个生活中的例子”,AI 更可能给出通俗易懂的解释。 在使用 AI 工具的过程中,可能会出现答非所问、回答格式不标准等问题,为让 AI 更好地服务,需要学习提示词工程。当用户的需求接近 AI 真实范围时,可通过写提示词甚至创建 BOT 来优化使用效果。
2025-04-15
如何成为提示词工程师
提示词工程师是在与人工智能模型交互时,负责设计和优化提示的专业人员,旨在通过精心构造的提示引导模型产生准确、有用和相关的回答。 其主要职责包括: 1. 设计提示:根据用户需求和模型能力设计有效的提示,考虑提示的长度、结构、措辞和信息量等因素,以清晰传达用户意图并引导模型生成满意结果。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式不断优化提示,提高模型性能。 3. 评估提示:使用各种指标如模型的准确率、流畅度和相关性等来评估提示的有效性。 提示词工程师需要具备以下技能和知识: 1. 领域知识:对所工作的领域有深入了解,以便设计出有效的提示。 2. 自然语言处理(NLP):了解 NLP 的基本原理和技术,能够理解和生成自然语言文本。 3. 人工智能(AI):了解 AI 的基本原理和技术,以便理解和使用 AI 模型。 4. 沟通能力:具备良好的沟通能力,与用户、团队成员和其他利益相关者有效沟通。 以下是一些提示词工程师工作的实际案例,比如在市场营销类和商业类中,有自动优化 Prompt 的案例,如 JackeyLiu 熟悉的转化步骤包括: 1. 角色和能力:基于问题思考 chatGPT 最适合扮演的角色,应是该领域最资深的专家,适合解决问题。 2. 上下文说明:思考提出问题的原因、背景和上下文。 3. 任务陈述:基于问题进行陈述。 提示词工程师是一个新兴职业,随着人工智能技术的不断发展,对其需求将会越来越大。
2025-04-15
我想学提示词工程
提示词工程是指在与人工智能模型进行交互时,负责设计和优化提示的专业领域。 提示词工程师的职责包括: 1. 设计提示:根据用户需求和模型能力,考虑提示的长度、结构、措辞和信息量等因素,设计有效的提示,清晰传达用户意图,引导模型生成满意结果。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同策略等方式,不断优化提示,提高模型性能。 3. 评估提示:使用准确率、流畅度和相关性等指标评估提示的有效性。 提示词工程师需要具备以下技能和知识: 1. 领域知识:对工作领域有深入了解,以便设计有效提示。 2. 自然语言处理(NLP):了解 NLP 基本原理和技术,能够理解和生成自然语言文本。 3. 人工智能(AI):了解 AI 基本原理和技术,能够理解和使用 AI 模型。 4. 沟通能力:与用户、团队成员和其他利益相关者有效沟通。 提示工程是在人工智能领域,特别是自然语言处理和大型语言模型的背景下,一个相对较新的概念。它涉及设计和优化输入提示,以引导 AI 模型生成特定输出或执行特定任务。其关键点包括精确性、创造性、迭代和上下文理解。提示词通常指直接输入到 AI 模型中的问题、请求或指示,是提示工程的一部分。提示工程不仅包括创建提示词,还涉及理解模型行为、优化提示以获得更好性能、探索模型潜在应用等。 目前提示词工程发展火热,出现了各种流派和框架,但结构化虽降低沟通难度、提高结果准确度,却也限制了更多可能性,且大部分框架不太适合解决过于主观、个人情绪或过于简单的问题,一个框架往往难以完全满足需求。
2025-03-31
提示词工程
提示词工程师(Prompt Engineer)是在与人工智能模型交互时,负责设计和优化提示的专业人员。他们的目标是通过精心构造的提示,引导模型产生准确、有用和相关的回答。 其主要职责包括: 1. 设计提示:根据用户需求和模型能力设计有效的提示,考虑提示的长度、结构、措辞和信息量等因素,确保清晰传达用户意图并引导模型生成满意结果。 2. 优化提示:通过收集用户反馈、分析模型结果和实验不同的提示策略等方式不断优化提示,以提高模型性能。 3. 评估提示:使用各种指标如模型的准确率、流畅度和相关性等来评估提示的有效性。 提示词工程师需要具备以下技能和知识: 1. 领域知识:对所工作的领域有深入了解,以便设计出有效的提示。 2. 自然语言处理(NLP):了解 NLP 的基本原理和技术,能够理解和生成自然语言文本。 3. 人工智能(AI):了解 AI 的基本原理和技术,能够理解和使用 AI 模型。 4. 沟通能力:具备良好的沟通能力,与用户、团队成员和其他利益相关者有效沟通。 以下是一些提示词工程师工作的实际案例: 无需微调,仅用提示词工程就能让 LLM 获得 tool calling 的功能。其主要有两部分代码组成:提示词注入和工具结果回传。提示词注入用于将工具信息以及使用工具的提示词添加到系统提示中。工具结果回传则是解析 tool calling 的输出,并将工具返回的内容再次嵌入 LLM。 在生成式 AI 模型中,提示词工程是一门新兴的学科。提示词是用户与模型沟通愿望的文本界面,可从简单问题到复杂任务。提示词工程的核心在于制作出能实现特定目标的最佳提示词,这不仅要指导模型,还涉及对模型能力和局限性的深刻理解及所处的上下文。提示词工程还需要结合领域知识、对 AI 模型的理解及系统化方法为不同情境定制提示词,是一个迭代和探索的过程。本文旨在深入探讨这个新兴领域,重点关注其在 LLM 中的应用,且大多数技术也可应用于多模态生成式 AI 模型。 随着人工智能技术的不断发展,对提示词工程师的需求将会越来越大。
2025-03-27
提示词工程入门
提示词工程入门: 基本概念: 简单的提示词能获得结果,但结果质量与提供信息的数量和完善度有关。提示词可包含指令、问题、上下文、输入、示例等元素,以更好地指导模型获得更好结果。 如使用 OpenAI 的聊天模型,有 system、user 和 assistant 三种角色,system 非必需但有助于设定 assistant 行为。本指南示例通常仅用 user 消息作 prompt。 语言模型能基于给出的上下文续写,可通过改进提示词获得更好结果。提示工程探讨如何设计最佳提示词以高效完成任务,可用于多种高级任务。 相关精读: 在生成式 AI 模型中,提示词工程是新兴学科,塑造模型交互和输出。提示词是用户与模型沟通的文本界面,涵盖简单问题到复杂任务。 提示词工程核心是制作实现特定目标的最佳提示词,涉及对模型能力和局限性的理解及所处上下文。 提示词工程不仅构建提示词,还需结合领域知识、对 AI 模型理解和系统化方法定制提示词,是迭代和探索过程。 关于提示词工程师: 是负责设计和优化提示的专业人员,目标是引导模型产生准确、有用和相关回答。 主要职责包括设计、优化、评估提示,需具备领域知识、自然语言处理、人工智能、沟通能力等。 是新兴职业,随着人工智能发展需求将增大,有实际工作案例。
2025-03-27
我是一个没有技术背景且对AI感兴趣的互联网产品经理,目标是希望理解AI的实现原理并且能够跟开发算法工程师沟通交流,请给我举出AI模型或者机器学习的分类吧。
以下是 AI 模型和机器学习的分类: 1. AI(人工智能):是一个广泛的概念,旨在使计算机系统能够模拟人类智能。 2. 机器学习:是人工智能的一个子领域,让计算机通过数据学习来提高性能。包括以下几种类型: 监督学习:使用有标签的训练数据,算法学习输入和输出之间的映射关系,包括分类和回归任务。 无监督学习:学习的数据没有标签,算法自主发现规律,经典任务如聚类。 强化学习:从反馈中学习,以最大化奖励或最小化损失,类似训练小狗。 3. 深度学习:是机器学习的一个子领域,模拟人脑创建人工神经网络处理数据,包含多个处理层,在图像识别、语音识别和自然语言处理等任务中表现出色。 4. 大语言模型:是深度学习在自然语言处理领域的应用,目标是理解和生成人类语言,如 ChatGPT、文心一言等。同时具有生成式 AI 的特点,能够生成文本、图像、音频和视频等内容。 2017 年 6 月,谷歌团队发表论文《Attention is All You Need》,首次提出了 Transformer 模型,它基于自注意力机制处理序列数据,不依赖循环神经网络或卷积神经网络。生成式 AI 生成的内容称为 AIGC。
2025-03-26