Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我希望做一个回答用户问题的聊天机器人,如何用rag来做

Answer

要使用 RAG(Retrieval-Augmented Generation,检索增强生成)来做一个回答用户问题的聊天机器人,可以按照以下步骤进行:

  1. 加载所需的库和模块:包括用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前需确保 ollama 服务已开启并下载好模型)。
  2. 从订阅源获取内容:通过特定函数从指定的 RSS 订阅 URL 提取内容,如需接收多个 URL 可稍作改动。然后使用专门的文本拆分器将长文本拆分成较小的块,并附带相关元数据,如标题、发布日期和链接,最终将这些文档合并成一个列表用于后续处理。
  3. 为文档内容生成向量:使用文本向量模型 bge-m3(可从 https://huggingface.co/BAAI/bge-m3 下载,假设放置在某个路径 /path/to/bge-m3 ),通过 FAISS 创建一个高效的向量存储。
  4. 基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现 RAG。
  5. 创建网页 UI:通过 gradio 创建网页 UI 并进行评测。
  6. 技术栈选择:经过调研,可先采取 Langchain + Ollama 的技术栈作为 demo 实现,后续也可考虑使用 dify、fastgpt 等更直观易用的 AI 开发平台。
    • Langchain 简介:是当前大模型应用开发的主流框架之一,提供一系列工具和接口,其核心在于“链”概念,包括 Model I/O、Retrieval、Chains、Agents、Memory 和 Callbacks 等组件,生态系统还包括 LangSmith、LangGraph 和 LangServe 等工具。
    • Ollama 简介:是一个开箱即用的用于在本地运行大模型的框架。

总结:

  1. 本文展示了如何使用 Langchain 和 Ollama 技术栈在本地部署一个资讯问答机器人,同时结合 RSSHub 来处理和提供资讯。
  2. 上下文数据质量和大模型的性能决定了 RAG 系统性能的上限。
  3. RAG 通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。
Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

基于用户的问题,从向量数据库中检索相关段落,并根据设定的阈值进行过滤,最后让模型参考上下文信息回答用户的问题,从而实现RAG。|创建网页UI最后,通过gradio创建网页UI,并进行评测。生成的Web UI如下:需要上述完整代码的读者,关注本公众号,然后发送fin,即可获取github仓库代码链接。问答测试对于同样的问题和上下文,我基于Qwen-7b、Gemma、Mistral、Mixtral和GPT-4分别进行了多次测试。下面是一些case:qwengemmamistralmixtralgpt4主要结论(只是针对有限的几次测试,个人主观评判)如下:? GPT-4表现最好,指令遵循能力很强,在回答的时候能附上引用段落编号✌️ Mixtral表现第二,但没有在回答的时候附上引用? Qwen-7b表现第三,也没有在回答的时候附上引用? Gemma表现一般,而且回答里面有一些幻觉? Mistral表现一般,使用英文回复,不过在回答的时候附上了引用段落编号总结1.本文展示了如何使用Langchain和Ollama技术栈在本地部署一个资讯问答机器人,同时结合RSSHub来处理和提供资讯。2.上下文数据质量和大模型的性能决定了RAG系统性能的上限。3.RAG通过结合检索技术和生成模型来提升答案的质量和相关性,可以缓解大模型幻觉、信息滞后的问题,但并不意味着可以消除。

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

经过调研,我决定先采取Langchain+Ollama的技术栈来作为demo实现,当然,后续我也会考虑使用dify、fastgpt等更加直观易用的AI开发平台。整体框架设计思路如下:另外,本次开发的运行环境是Intel Mac,其他操作系统也可以。下载模型等可能需要梯子。Langchain简介https://www.langchain.com/langchainLangchain是当前大模型应用开发的主流框架之一,旨在帮助开发者构建和部署基于大型语言模型(LLM)的应用。它提供了一系列的工具和接口,使得与LLM交互变得简单。通过Langchain,开发者可以轻松创建定制的高级应用,如聊天机器人、问答系统和多种智能应用。Langchain的核心在于其“链”概念,这是一个模块化的组件系统,包括Model I/O(模型输入输出)、Retrieval(数据检索)、Chains(链)、Agents(代理)、Memory(内存)、和Callbacks(回调)。这些组件可灵活组合,以支持复杂的应用逻辑。Model I/O模块负责处理与语言模型的直接交互,包括发送请求和解析响应。Retrieval模块用于增强语言模型的回答能力,通过向量数据库检索相关信息来支持回答生成。Chains模块则是多个组件的集成,用于构建更复杂的应用逻辑。Langchain的生态系统还包括LangSmith、LangGraph和LangServe等工具,这些工具能帮助开发者高效管理从原型到生产的各个阶段,以便优化LLM应用。Ollama简介https://ollama.com/Ollama是一个开箱即用的用于在本地运行大模型的框架。它的主要功能和特点包括:

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
社群机器人
以下是关于社群机器人的相关内容: 制作 Coze 社群机器人的大致流程看似步骤繁多,但由于 Coze 本身的设计和强大的社区力量,实际操作并不复杂,关键是要“迈出第一步”。在制作过程中,与社区成员设计方案时的深入讨论、在 Coze 平台上灵活组装功能时的高效畅快以及在不断调试优化中见证机器人成长,都充满乐趣。未来会有更多社区加入制作社群机器人的行列,让更多人感受 AI 智能体的魅力,那时的社群机器人不仅是助手,更是凝聚社区集体智慧的伙伴。目前的社区机器人还有不足,作者会继续优化,看其能否更好地服务社区。 如果对学习 Coze 和 AI Agent 有兴趣,可以加入免费的 AI Agent 共学群,该群组会基于 WaytoAGI 社区等高质量信息源分享相关玩法、经验和前沿资讯。可搜索微信号 Andywuwu07 或扫描二维码加微信,备注 AI 共学以便被拉入群。 此外,以综合服务的社群机器人为例,一个好的文章或复杂任务不是一次 AI 工作就能完成的,需要任务拆解,比如对用户问题做意图判断,根据意图将线路转接到正确的专属 AI 机器人那里,整个过程称为工作流,通过搭建工作流来完成复杂任务。
2025-04-15
MacBook 如何做一个 RPA 机器人
以下是在 MacBook 上制作 RPA 机器人的详细步骤: 搭建前准备: 硬件准备: MacBook(需能科学上网) 一部 iPhone 手机 主板 Arduino UNO R4 Wifi(200RMB) 舵机 9g(32RMB) 杜邦线,公对公 7 条(手残党可多备) (可选)八爪鱼支架(10RMB) (二选一)usbtypeC 转接头,或一根两头 typeC 的线 Arduino UNO R4 WIFI 开发板 MG90s/SG90 舵机 9g 云台支架 可选八爪鱼手机支架 杜邦线公对公 搭建步骤: 完成代码: 在 Github 上下载完整代码。 根据需求修改文件: 【必改】在 head.py 中找到填写主板串口的地方,改成串口地址(可通过主板写入的第 3 步里的小字或 Tools>Get Board Info 重新查询,复制 sn 号替换 usbmodem 后面的编码)。 【必改】查询 iPhone 的 ip 地址,填到 talk.py 里(iPhone 设置>无线局域网>点击当前 wifi 旁的感叹号>找到 ipv4 地址里写的 ip 地址)。 【必改】把 open ai key 填到 talk.py 里。 【可选】在 talk.py 里,可以修改: Openai 调用的 model。 system prompt(机器人的人设)。 机器人的音色。 录音的设置。 【可选】在 head.py 里,可以修改不对话后,等待多久恢复人脸追踪。 运行程序: 在 MacBook 上按下 command+space(空格)打开一个新的终端,依次输入如下代码(每一次代码运行完以后再输入下一个),全部完成后,关闭端口。 将 iPhone 的屏幕关闭时间设置为 5 分钟或永不。 打开 iPhone 的 pythonista 并复制 face.py 的代码进去,运行。注意:每一次如果需要重新运行 pythonista,请先杀后台再运行,否则会因为端口已经被占用而无法播放声音。 找到下载下来的 AIinhindsightGPTEmbodimentRobot 文件夹,control+单击文件夹,选择最后一项“新建位于文件夹位置的终端端口”。 将 arduino R4 与 MacBook 相连,在终端中输入以下代码,运行后程序会申请一次摄像头权限,点击允许,然后出现运行失败,再运行一次即可。这个程序一旦运行,无法自然退出,建议直接拔掉 R4 的线或者终端输入 control+c 或者直接关闭终端,但多强制退出几次以后运行就会卡住需要重启或清进程。 再次在 AIinhindsightGPTEmbodimentRobot 文件夹,control+单击文件夹,选择最后一项“新建位于文件夹位置的终端端口”,在终端中输入以下代码,运行后程序会申请一次录音权限,点击允许,然后出现运行失败,再运行一次即可。如果运行中出现任何报错,将本文档,代码,报错信息给到 GPT4,让他帮助你就好~可能是有一些库没有预装。 把 talk.py 的终端放在最前面你能看到,出现 recording...的时候就可以说话了。 三个程序同时运行、iPhone 和 MacBook 在同一 wifi,iPhone 没有调静音的情况下,就可以正常对话啦。
2025-04-11
怎么搭建微信机器人?
以下是搭建微信机器人的步骤: 1. 登录成功后,找另一个人私聊或者在群中@您,就可以看到机器人的正常回复,此时表示已通。 2. 如果想为这个 AI 赋予提示词,可以返回相应步骤进行更改。例如在“目录 4 里的第 17 步”或“第三章,第 7 步”,其中双引号内的 value 部分,便是设置 AI 提示词的地方。 3. 此后,进行任何更改,都需要重新打印登陆二维码。并且一个月内,不要上来就加好友、最好不要私聊聊天。 4. 报错"wxsid"是因为微信未实名,实名即可解决。 5. 如果没有手机登录,可以使用夜神模拟器模拟手机登录。 6. 重新在“文件”的【终端】里,直接输入 nohup python3 app.py&tail f nohup.out 重新扫码登录。 7. 多次重新登录后,就在宝塔“首页右上角点击重启,重启一下服务器”,清理进程。 8. 熟悉 linux 操作的话,也可以通过重启进程的方式来重启服务。 9. 如果想退出机器人,在手机微信上找到桌面版已登录的信息,点击退出桌面版即可。 此外: 1. Link AI 提供的 100 个,合计 3500 万 GPT3.5 Token 的礼品码。可以用来实现画图、搜索、识图等功能,COW 插件里几乎都支持使用 LinkAI 平台。完成机器人搭建,机器人拉群里,领兑换码。 2. 添加微信,拉您进机器人群,先行体验。 如果您仍旧遇到问题,可以先查询社区知识库,或者加“通往 AGI 之路”群,社区小伙伴们会尽力帮助。也可以加 Stuart 个人微信询问。
2025-04-11
创建飞书ai机器人
创建飞书 AI 机器人的步骤如下: 1. 工作流搭建: 打开 Comfyui 界面后,右键点击界面,即可找到 Comfyui LLM party 的目录,您既可以学习如何手动连接这些节点,从而实现一个最简单的 AI 女友工作流,也可以直接将工作流文件拖拽到 Comfyui 界面中一键复刻。 2. 飞书机器人创建: 飞书应用建立: 在中创建自建应用。 进入应用获取 app_id 与 app_secret。 添加应用能力>开启机器人应用能力。 权限管理>消息与群组>选择需要的权限打开。 安全设置>将 comfyUI 运行的电脑 IP 加入白名单。 发布机器人以应用生效。 获取群组或用户 id: 要先把创建的机器人拉到群组中或者拉进私聊。 飞书开发平台找到发送消息的开发文档。 右侧点击获取 token。 选择 receive id type,chat_id 对应群组,open_id 与 user_id 对应个人,点击选择成员,复制对应的 id 即可。 如果需要让机器人发送语音,需要自行在电脑上安装 ffmpeg 。
2025-04-11
微信机器人如何配置
微信机器人的配置步骤如下: 1. sum4all 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 sum4all 插件目录下的 config.json.template,复制并粘贴重命名为:config.json 注册并获取 sum4all key:https://pro.sum4all.site/register?aff=T6rP ,新用户注册有送免费额度,大家先使用这个进行试用,后续可改为自己的 openAI key。 把复制的 key,粘贴到 sum4all 的 config.json 文件内。(上方有功能阐述,你想要哪个,就把哪个改成 ture) 2. Apilot 配置 进入插件目录:/root/chatgptonwechat/plugins 找到 Apilot 文件下的 config.json.template,复制并粘贴重命名为:config.json 去 https://admin.alapi.cn/account/center 注册,并复制 key 把复制来的 key,粘贴进入。保存。 3. 分段对话配置替换 找到这个路径:/root/chatgptonwechat/channel/wechat,直接下载以下文件进行替换。 此外,微信的配置相对较简单,只需要主项目的 config.json 文件看看是否有"channel_type"参数,参数值为:"wx",即:"channel_type":"wx"。完成以上所有配置部分后,可以准备启动步骤了: 使用 nohup 命令在后台运行程序。 执行完启动脚本,等待 30s 左右,会看到终端有一个微信登录的二维码,微信扫码登录。 如果您想使用更多辅助功能,比如使用总结文件能力,总结网页内容能力,此时需要安装各种插件。这部分配置查看插件配置管理部分。
2025-04-10
利用飞书多维表格,做一个类似于客服机器人 可以怎么做?
利用飞书多维表格做一个类似于客服机器人,可以按照以下步骤进行: 1. 创建一个拟人化的 bot,比如起名叫青青,设定其为人设是一个可爱有趣的少女,擅长回答各种刁钻的问题。完成 BOT 捏好后点击发布。 2. 发布时配置飞书多维表格: 输出为文本时,第一步配置为文本。 配置多维表格输入表单,选择用控件的字段选择器,给字段标题随便起个名字如“question”。 在完善捷径的商家信息这里,可以选择全量发布,也可以选择仅自己可用。为了审核快一些,可以选择仅自己可用。等审核通过之后,就可以在飞书多维表格里面看到发布成功。 3. 还可以探索字段捷径的各种玩法(不含 bot),比如直接创建一个多维表格,第一列是几个成语,第二列是 AI 字段捷径生成的对成语的解释。左边输入一列,比如一列成语,右边配置 AI 字段。 此外,还有一些相关信息供您参考: “Show Me 扣子 AI 挑战赛大消费行业专场圆满落幕,探索 AI 与大消费行业的深度结合”中提到了一些相关作品,如帮助企业快速建立产品智能客服体系、ERP 高智版:扣子销售订单管理大师、亚马逊商品评论智析、AI 电商设计师等。 2024 年历史更新(归档)中包含了关于飞书多维表格字段捷径配置 COZE 的 BOT 青青的相关内容。
2025-04-08
推理类模型,以deepseek为代表,与此前的聊天型ai,比如chatgpt3.5,有什么差异
推理类模型如 DeepSeek 与聊天型 AI 如 ChatGPT3.5 存在以下差异: 1. 内部机制:对于大语言模型,输入的话会被表示为高维时间序列,模型根据输入求解并表示为回答。在大模型内部,是根据“最大化效用”或“最小化损失”计算,其回答具有逻辑性,像有自己的思考。 2. 多模态能力:ChatGPT3.5 是纯语言模型,新一代 GPT 将是多模态模型,能把感官数据与思维时间序列一起作为状态,并装载在人形机器人中,不仅能对话,还能根据看到、听到的事进行判断,甚至想象画面。 3. 超越人类的可能性:有人假设人按最大化“快乐函数”行动,只要“效用函数”足够复杂,AI 可完全定义人,甚至超越人类。如在“短期快乐”与“长期快乐”的取舍上,人类难以找到最优点,而 AI 可通过硬件算力和强化学习算法实现,像 AlphaGo 击败世界冠军,在复杂任务上超越人类。 4. 应用领域:文字类的总结、润色、创意是大语言模型 AI 的舒适区,如从 ChatGPT3.5 问世到 ChatGPT4 提升,再到 Claude 3.5 sonnet 在文学创作领域取得成绩,只要有足够信息输入和合理提示词引导,文案编写可水到渠成。
2025-03-18
可以同时接多个大模型api的聊天应用
以下是一些可以同时接多个大模型 API 的聊天应用: 1. 熊猫大侠:基于 COW 框架的 ChatBot 实现步骤 能实现打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用等功能。 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。 可选择多模型,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型,包括文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 有多种部署方法,如本地运行、服务器运行、Docker 的方式。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;操作需依法合规,对大模型生成的内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏。 相关教程:张梦飞同学写的更适合小白的使用教程 2. DIN:全程白嫖拥有一个 AI 大模型的微信助手 搭建步骤: 搭建,用于汇聚整合多种大模型接口,并可白嫖大模型接口。 搭建,这是个知识库问答系统,可将知识文件放入,并接入大模型作为分析知识库的大脑来回答问题。若不想接入微信,其自身有问答界面。 搭建接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。 拓展功能:搭建完后想拓展 Cow 的功能,可参考 Yaki.eth 同学的教程,里面的 cow 插件能进行文件总结、MJ 绘画。 3. LLM 开源中文大语言模型及数据集集合中的外部挂件应用 wenda: 地址: 简介:一个 LLM 调用平台。为小模型外挂知识库查找和设计自动执行动作,实现不亚于大模型的生成能力。 JittorLLMs: 地址: 简介:计图大模型推理库:笔记本没有显卡也能跑大模型,具有成本低,支持广,可移植,速度快等优势。 WebCPM 地址: 简介:一个支持可交互网页搜索的中文大模型。 GPT Academic: 地址: 简介:为 GPT/GLM 提供图形交互界面,特别优化论文阅读润色体验,支持并行问询多种 LLM 模型,兼容复旦 MOSS, llama, rwkv, 盘古等。 ChatALL: 地址: 简介:ChatALL(中文名:齐叨)可以把一条指令同时发给多个 AI,可以帮助用户发现最好的回答。
2025-03-17
微信聊天记录整理助手
以下是关于微信群聊总结 AI 助手(JS and Electron ver)的详细介绍: 脚本版本运行: 会弹出二维码,使用微信扫码登录,登录成功后程序持续抓取群聊记录,保存在本地文件中,位置在 data/日期文件夹/群名.txt,不会上传到第三方。 手动运行总结程序,在每天结束时对某个群的内容进行总结,命令为:npm run summarize./data/20230823/xxx.txt 总结语音生成的配置。 项目介绍: 这是基于微信机器人的微信群聊总结助手,能自动收集群聊记录并用 AI 总结发送到指定群聊。 是较简单能实现完整功能的项目,用 JS 简单封装。 每次执行 summarize 命令会生成三个总结文件。 提示:使用本项目登录微信可能存在封号风险,请慎重使用并遵守相关平台规则。 下载与支持: 本项目由免费白嫖 GPT 的智囊 AI技术支持。 自己跑不起来但需要群聊总结的同学,可加机器人微信号:aoao_eth,把机器人拉进群里。 新版本:桌面应用: 可使用桌面版,一键监控、总结、发送,也可用脚本版手动运行监控和总结。 下载后直接打开配置 app key 即可运行监控和总结,一键总结,一键发送到群内。 如需要 windows 版本,可自己构建或者直接代码运行,代码在 app 文件夹中,欢迎构建成功的同学提供 windows 安装包。 截图展示的功能: 每日群聊监控和数据统计(界面实时更新) 一键总结,一键查看总结结果,一键发送到群聊 聊天记录实时查看,直接发送内容到群聊 随时更新的配置,可配置截取的文本长度和结尾词等 机器人状态监控,账号切换 正常运行界面,点击对话可看到实时对话和记录,同时可直接输入内容对话 微信登录界面
2025-03-12
微信聊天机器人
以下是关于搭建 AI 微信聊天机器人的相关内容: 1. 纯 GPT 大模型能力的微信聊天机器人搭建: 开始搭建,配置腾讯云轻量应用服务器,配置部署 COW 组件。 在复制的 dockercompose.yml 文件中修改具体配置来串联微信号和已创建好的 AI 机器人。配置参数参考官方来源:https://docs.linkai.tech/cow/quickstart/config 。编排模板中,名称的全大写描述需对应,如 open_ai_api_key 对应 OPEN_AI_API_KEY 。私聊或群聊时,最好加上前缀触发机器人回复,如配置的对应配置参数 SINGLE_CHAT_PREFIX,群聊中对应参数是 GROUP_CHAT_PREFIX,机器人只会回复群里包含@bot 的消息。GROUP_NAME_WHITE_LIST 用来配置哪些群组的消息需要自动回复。 2. 直接对接 Coze 平台 Bot 的微信聊天机器人搭建: 微信有多种功能,个人微信/微信群目前 Coze AI 平台不支持直接对接,微信公众号、微信服务号、微信客服支持与 Coze AI 平台对接。 Coze 的国内版已正式发布 API 接口功能,可直接对接个人微信和微信群。 3. 熊猫大侠:基于 COW 框架的 ChatBot 实现步骤: COW 是基于大模型搭建的 Chat 机器人框架,将多模型塞进微信里的实现方案。 有更适合小白的使用教程:【保姆级】一步一图,手把手教你把 AI 接入微信副本 。 实现内容包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。 正式开始前需知道: ChatBot 相较于在各大模型网页端使用区别:本实现思路需接入大模型 API(API 单独付费)。 风险与注意事项:微信端因非常规使用有封号危险,不建议主力微信号接入;只探讨操作步骤,请依法合规使用,大模型生成内容注意甄别,禁止用于非法目的,处理敏感或个人隐私数据注意脱敏。 支持多平台接入:微信、企业微信、公众号、飞书、钉钉等。 支持多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM4/LinkAI 等。 支持多消息类型:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。 支持多部署方法:本地运行、服务器运行、Docker 的方式。
2025-03-06
用ai帮助聊天
以下是关于用 AI 帮助聊天的相关内容: Cursor 官方: Chat 聊天:允许您与看到您的代码库的 AI 交谈。聊天室始终可以看到您当前的文件和光标,您可以向它询问诸如“这里有 bug 吗”等问题。您可以使用⌘+Shift+L 或“@”将特定代码块添加到上下文中,也可以使用⌘+Enter 与整个代码库聊天。 代码库答案:使用@Codebase 或⌘Enter 询问有关您的代码库的问题,Cursor 会搜索您的代码库以查找与您的查询相关的代码。 引用您的代码:带有@符号的参考代码可用作 AI 的上下文,只需键入@即可查看文件夹中所有文件和代码符号的列表。 使用图像:点击聊天下方的图片按钮,或将图片拖到输入框中,将视觉上下文包含在聊天中。 学习笔记:Generative AI for Everyone 吴恩达: 阅读方面:可以让 LLM 检查文本错误、总结长句。客服人员针对每一位用户传递大量信息时,可内置 LLM 快速总结信息提供给决策管理层,使用 LLM 进行语义分析,将邮箱、客户留言等外部信息传递给相关部门。构建处理信息的 LLM 模型时,要设置好提示词,持续优化。 聊天方面:聊天机器人可用于做旅游计划、职业咨询、做饭建议等,不仅能生成文本,还能产生进一步行动,如处理文本后发送订单信息等。建立聊天机器人的流程为:开始于内部聊天机器人,确保良好表现并避免问题;设置人为参与链路;确保安全后,让机器人对接用户。 大语言模型行与不行:能做类似于应届生能做的事;不可做的包括时间限制(如 GPT3 只有 2022 年 1 月前的数据)、会出现幻觉、接受有限的 prompt、输出有限制、不可以很好处理结构化数据、可能输出有害的信息。 @Chat:此功能目前仅适用于 Cmd K。您可以在 Cmd K 中使用@Chat 将当前聊天消息添加为上下文,当您与希望应用于编辑或生成代码的 AI 进行对话时很有用。
2025-03-03
帮助聊天的ai
以下是关于帮助聊天的 AI 的相关信息: Cursor: Chat 聊天:允许您与看到您的代码库的 AI 交谈。聊天室始终可以看到您当前的文件和光标,您可以向它询问诸如“这里有 bug 吗”等问题。您可以使用⌘+Shift+L 或“@”将特定代码块添加到上下文中,使用⌘+Enter 与整个代码库聊天。 Codebase Answers 代码库答案:使用@Codebase 或⌘Enter 询问有关您的代码库的问题,Cursor 会搜索您的代码库以查找与您的查询相关的代码。 Reference your Code 引用您的代码:带有@符号的参考代码,用作 AI 的上下文。只需键入@即可查看文件夹中所有文件和代码符号的列表。 Use Images 使用图像:点击聊天下方的图片按钮,或将图片拖到输入框中,将视觉上下文包含在聊天中。 Claude: Claude AI 是一款由 Anthropic 公司开发的 AI 助手,是基于自然语言处理技术和人工智能算法的聊天机器人。它能使用自然语言理解技术理解人类语言,并使用自然语言生成技术进行回答和梳理,以开创性计算机科学家克劳德·香农(Claude Shannon)的名字命名,利用最先进的机器学习技术、自然语言处理和深度学习算法,为各种应用提供支持,包括但不限于数据分析、自动化和个性化辅助。 注册步骤: 1. 访问 Claude 的官方网站。 2. 点击注册或登录界面中的“Sign Up”或“Continue with email”选项。 3. 填写邮箱地址并设置密码,然后提交表单。 4. 系统会向邮箱发送一封验证邮件,打开邮件并使用其中的验证码完成邮箱验证。 若在注册过程中遇到需要海外手机号接收验证码的问题,可能的解决方案有: 1. 使用虚拟海外号服务,如 SMSActivate、SMSPool 等,购买一个海外虚拟手机号来接收 Claude 的验证码。 2. 借助第三方服务网站如 uiuihao.com 完成注册您的 Claude 账号。 3. 若有海外朋友,可请他们帮忙接收验证码,并将验证码告知您。 完成注册后,若希望升级到 Claude Pro 版本以获取更强大功能和更高的 API 调用限额,需填写支付信息并选择合适的订阅计划。需注意,订阅 Claude Pro 可能需要使用海外支付方式。Claude.ai 目前处于公开测试阶段,未付费用户使用平台可能会受到一些限制。若在注册过程中遇到问题,可参考其他用户分享的详细注册教程和解决策略。
2025-03-03
目前有哪些AI可以支持对用户上传的视频进行理解分析?
目前以下 AI 可以支持对用户上传的视频进行理解分析: 1. Gemini 2.0 Flash Thinking:是解析视频的不错选择,可在 AIStudio(访问 aistudio.google.com,需海外 IP)上传视频进行解析。 2. MiniMax 视频模型:能准确识别用户上传的图片,生成的视频在形象保持、光影色调、指令响应、表情呈现等方面表现出色,还支持 2000 字提示词以更精准调控。 3. 百炼大模型平台:应用广场里的影视传媒视频理解能力可对视频进行语音转写、视觉语言分析等处理并总结成文,有清晰使用步骤,还能根据偏好调试提示词。
2025-04-09
excel表格导出的用户的对话记录,来进行自定义标签并打标,有哪些好用的现成方案或者工具
目前在 Excel 表格导出的用户对话记录进行自定义标签并打标方面,以下是一些常见且好用的工具和方案: 1. Microsoft Excel 本身:可以利用其数据筛选、排序和函数功能来辅助标签和打标。 2. Google Sheets:具有类似 Excel 的功能,且在线协作方便。 3. R 语言:通过编程实现复杂的数据分析和标签处理。 4. Python 及相关库,如 Pandas:能够灵活处理数据和进行标签操作。 但具体选择哪种方案或工具,取决于您的具体需求、技术水平和使用习惯。
2025-04-07
如果面试AI产品经理岗位,我的简历应该如何介绍对应的AI项目?目前我在做的是一个AI深度解读的功能,用户通过报告页面进行深度解读,进入后触发AI与用户的沟通,根据沟通信息,将用户的一些情况写在病历信息中,最终发给医生
以下是为您提供的一些参考,帮助您在面试 AI 产品经理岗位时介绍对应的 AI 项目: 在您所做的 AI 深度解读功能项目中,可以从以下几个方面进行介绍: 项目背景:阐述开展该项目的原因和目标,例如为了提升医疗服务的效率和准确性,满足用户对深度医疗解读的需求等。 项目职责:详细说明您在项目中的具体职责,如需求分析、产品规划、与开发团队协作、与用户沟通获取反馈等。 技术实现:描述项目中所运用的关键技术,如触发 AI 与用户沟通的机制、如何将用户信息写入病历等。 用户体验优化:提及为提升用户体验所采取的措施,比如优化报告页面的设计、提高 AI 沟通的自然度和准确性等。 成果与效益:展示项目取得的成果,如提高了医生的诊断效率、提升了用户满意度等。 此外,您还可以参考以下其他相关人员的项目经验: 秦超作为 AI 2C 项目负责人,在产品落地服务方面具有丰富的经验,包括产品、技术架构以及项目管理等。 Cici?在 AI 算法开发领域,将宠物与 AI 结合,具备 AI 产品研发和创业经验。 11 鸭鸭呀作为产品经理,在智能写作产品方面有 Prompt 撰写和 AI 应用的经验。 枫 share 作为产品经理,熟悉 ChatGPT,写过 prompt,使用过多种 AI 创作工具,并正在寻找 AI 方向的产品岗位。 行远作为产品经理,熟悉 prompt,部署过多种绘图项目,使用过多款 AI 创作工具,期待学习和实战案例应用。 希望以上内容对您有所帮助,祝您面试成功!
2025-04-01
罗列具体的AI模型产品和具体的AI技术创新点,并总结AI技术的发展趋势,并说明这些发展趋势为用户的交互体验带来了什么样的改变?按照时间线将以上内容梳理出来
以下是按照您的需求梳理的内容: 时间线 早期: 从图灵测试、早期的图灵机器人和 ELISA 开始,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统。 近年来: OpenAI 发布 ChatGPT 模型,引发用户习惯从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 大模型创新方面,架构优化加速涌现,融合迭代成为趋势。Scaling Law 泛化,推理能力成为关键,倒逼计算和数据变革。AGI 探索中,视频生成点燃世界模型,空间智能统一虚拟和现实。 在应用方面,AI 在文科白领的个人助理、呼叫中心、文本处理和教育等领域表现出色,能完成 80%到 90%的工作;对于工科白领,特别是程序员,能简化代码检索和调整;在蓝领领域,自动驾驶取得显著进展。但在复杂任务方面仍有改进空间。 第一轮洗牌结束,聚焦 20 赛道 5 大场景,多领域竞速中运营大于技术,AI 助手成为竞争重点。AI+X 赋能类产品发展迅速,原生 AI 爆款难求。多模态上马,Agent 席卷一切,高度个性化呼之欲出。 人工智能发展经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。大模型由数据、算法、算力构成,算法有技术架构的迭代,如英伟达的显卡辅助模型训练,数据质量对生成理想的大模型至关重要。 未来: 李沐预测技术发展可能催生出革命性的应用形态,但 AI 离真正变革世界还有一段距离。 预计 AI 在蓝领工作的初步应用至少需要 5 年时间。 AI 技术创新点: 大模型创新:架构优化加速涌现,融合迭代大势所趋。 Scaling Law 泛化:推理能力成皇冠明珠,倒逼计算和数据变革。 AGI 探索:视频生成点燃世界模型,空间智能统⼀虚拟和现实。 AI 技术的发展趋势: 模型架构不断优化和融合。 更加注重推理能力的提升。 探索 AGI 领域,实现虚拟和现实的统一。 应用格局不断洗牌,聚焦特定赛道和场景。 多模态和 Agent 技术的广泛应用。 对用户交互体验的改变: 用户习惯从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 AI 应用为用户提供辅助,在多个领域帮助完成任务。
2025-03-31
AI技术发展时间线,罗列具体的AI模型产品和具体的AI技术创新点,并总结AI技术的发展趋势,并说明这些发展趋势为用户的交互体验带来了什么样的改变?
以下是关于 AI 技术发展的相关内容: AI 技术发展时间线: 从图灵测试、早期的图灵机器人和 ELISA,到 IBM 的语音控制打印机、完全由人工智能创作的小说、微软的同声传译系统,再到 OpenAI 发布 ChatGPT 模型,经历了萌芽、积累沉淀到如今大模型和多模态模型百花齐放的阶段。 具体的 AI 模型产品: ChatGPT 改变了用户习惯,从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 具体的 AI 技术创新点: 大模型创新方面,架构优化加速涌现,融合迭代成为趋势。 Scaling Law 泛化,推理能力成为皇冠明珠,倒逼计算和数据变革。 AGI 探索中,视频生成点燃世界模型,空间智能统一虚拟和现实。 AI 技术的发展趋势: 大模型创新:架构优化加速涌现,融合迭代大势所趋。 应用格局:第一轮洗牌结束,聚焦 20 赛道 5 大场景。 应用竞争:多领域竞速运营大于技术,AI 助手兵家必争。 应用增长:AI+X 赋能类产品大干快上,原生 AI 爆款难求。 产品趋势:多模态上马,Agent 席卷一切,高度个性化呼之欲出。 智变千行百业:左手变革生产力,右手重塑行业生态。 行业渗透率:数据基础决定初速度,用户需求成为加速度。 创投:投融资马太效应明显,国家队出手频率提升。 对用户交互体验的改变: ChatGPT 使用户从简单触控操作转向更复杂的长文本输入,未来可能延伸至长语音交互。 在文科白领方面,AI 能完成 80%到 90%的工作,如个人助理、呼叫中心、文本处理和教育等领域。 对于工科白领,特别是程序员,AI 能简化代码检索和调整。 在蓝领领域,AI 在自动驾驶方面取得显著进展。
2025-03-31
如何生成一个根据用户输入的需求推荐旅游地点的智能体
要生成一个根据用户输入的需求推荐旅游地点的智能体,可以参考以下几种方式: 小众打卡地智能体: 基本信息:名称为“小众打卡地”,链接为 https://tbox.alipay.com/pro/share/202412APCyNn00194489?platform=WebService 。 核心价值:为用户发掘非大众化的特色景点,避开人流;提供个性化的旅行建议,并有目的地的图片参考;帮助用户快速获取高质量的旅行参考信息;提供小红书文案,也适合发小红书。 搭建思路重点:录入小红书的相关文案参考知识库;通过文本模型组成搜索词进行搜索,从搜索到的所有网页链接中,通过代码节点提取相关的 url,滤除需要安全认证的网站,挑选非周边城市攻略推荐,尽量检查“小众”或“冷门”;通过 url 网页正文提取相关的小众地点输出,同时通过代码进行打卡点的字符串输出用于后续节点运用;根据需要搜索的小众旅行地进行图片搜索,随机提取一条图片的 url,过滤部分失效的网站;最后的文案输出适合小红书文案和旅行发布参考。 旅行青蛙智能体: 搭建过程开源: 意图分支 1(随机旅行):根据用户的坐标和触发事件,推荐当季适合的旅行景点。可以用大模型实现这一功能(小白适用),也可以用代码或者知识库的方式进行随机抽取。为了让大模型每次输出的地点尽量不同,可以拉高多样性的值。 大模型节点(旅行日记):设定字数、风格,入参是触发事件和上一个大模型输出节点的结果。 大模型节点(为你写诗):添加输入项。 大模型节点(文生图提示词):这个节点是固定前缀提示词,再根据地点和季节进行其它信息的补充。添加输入项。 城市探险家智能体: 智能体功能实现: 基础功能模块: 城市信息库:包括城市基础信息(地理位置、人口、气候等)、文化特色(历史传统、本地习俗、节日活动)、旅游资源(景点、美食、住宿、交通)、实用信息(最佳旅行季节、注意事项、消费水平)。 积分系统:完成探索后获取探索点数,获取方式包括主要景点探索、美食品鉴、文化体验、历史探索、交通探索、隐藏景点发现。 称号系统:等级划分有旅途新手(0 点)、城市漫游者(20 点)、文化探索者(50 点)、环球冒险家(100 点)、旅行大师(200 点)。 推荐系统:基于用户历史分析用户已探索城市类型;根据当前季节推荐适合城市;根据用户兴趣推荐主题路线;结合用户偏好进行个性化定制推荐。 交互功能实现:对话流程包括用户输入城市名称、智能体分析城市类型、生成个性化城市介绍、计算并更新探索点数、检查称号解锁、推荐相关城市。 完整 prompt:先定义好各子系统的规则;在对话流程中调用子系统;测试 prompt 效果,迭代 prompt;调试到理想的输出效果后,开始固定输出模板(在 prompt 内加入输出模板示例);继续测试,直至稳定。
2025-03-31