Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

怎么用大模型构建一个属于我自己的助手

Answer

以下是用大模型构建属于自己的助手的几种方法:

  1. 在网站上构建:
    • 创建百炼应用获取大模型推理 API 服务:
      • 进入百炼控制台的我的应用,在页面右侧点击新增应用,选择智能体应用并创建。
      • 在应用设置页面,模型选择通义千问-Plus,其他参数保持默认,也可以输入一些 Prompt 来设置人设。
      • 在页面右侧提问验证模型效果,点击右上角的发布。
    • 获取调用 API 所需的凭证:
      • 在我的应用>应用列表中查看所有百炼应用 ID 并保存到本地。
      • 在顶部导航栏右侧,点击人型图标,点击 API-KEY 进入我的 API-KEY 页面,创建新 API-KEY 并保存到本地。
  2. 微信助手构建:
    • 搭建OneAPI,用于汇聚整合多种大模型接口,并获取白嫖大模型接口的方法。
    • 搭建FastGpt,作为知识库问答系统,将大模型接入用于回答问题,若不接入微信,搭建完成即可使用其问答界面。
    • 搭建chatgpt-on-wechat接入微信,配置 FastGpt 将知识库问答系统接入微信,建议先用小号以防封禁风险。
  3. 基于 COW 框架构建:
    • COW 是基于大模型搭建的 Chat 机器人框架,可将多模型塞进微信。
    • 基于张梦飞同学的更适合小白的使用教程:【保姆级】一步一图,手把手教你把 AI 接入微信副本
    • 实现功能包括打造属于自己的 ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI 画图等)、常用开源插件的安装应用。
    • 注意事项:
      • 微信端因非常规使用有封号危险,不建议主力微信号接入。
      • 只探讨操作步骤,请依法合规使用。
      • 大模型生成的内容注意甄别,确保操作符合法律法规要求。
      • 禁止用于非法目的,处理敏感或个人隐私数据时注意脱敏,以防滥用或泄露。
      • 支持多平台接入,如微信、企业微信、公众号、飞书、钉钉等。
      • 支持多模型选择,如 GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM-4/LinkAI 等。
      • 支持多消息类型,能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。
      • 支持多部署方法,如本地运行、服务器运行、Docker 的方式。
Content generated by AI large model, please carefully verify (powered by aily)

References

10分钟在网站上增加一个AI助手

首先我们可以通过创建一个百炼应用,来获取大模型的推理API服务,用于实现AI助手。[heading3]1.1创建应用[content]1.进入百炼控制台的[我的应用](https://bailian.console.aliyun.com/#/app-center),在页面右侧点击新增应用。在对话框,选择智能体应用并创建。1.2.在应用设置页面,模型选择通义千问-Plus,其他参数保持默认。3.您也可以选择输入一些Prompt,比如设置一些人设以引导大模型更好的应对客户咨询。4.1.2.在页面右侧可以提问验证模型效果。不过您会发现,目前它还无法准确回答你们公司的商品信息。点击右上角的发布,我们将在后面的步骤中去解决这一问题。3.1.[heading3]1.2获取调用API所需的凭证[content]为了在后续通过API调用大模型应用的能力,我们需要获取一个百炼应用的API-KEY和应用ID:1.在我的应用>应用列表中可以查看所有百炼应用ID。保存应用ID到本地用于后续配置。1.2.在顶部导航栏右侧,点击人型图标,点击API-KEY进入我的API-KEY页面。在页面右侧,点击创建我的API-KEY,在弹出窗口中创建一个新API-KEY。保存API-KEY到本地用于后续配置。1.

DIN:全程白嫖 - 拥有一个AI大模型的微信助手

1.搭建[OneAPI](https://github.com/songquanpeng/one-api),这东西是为了汇聚整合多种大模型接口,方便你后面更换使用各种大模型。下面会告诉你怎么去白嫖大模型接口。2.搭建[FastGpt](https://fastgpt.in/),这东西就是个知识库问答系统,你把知识文件放进去,再把上面的大模型接进来,作为分析知识库的大脑,最后回答你问题,这么个系统。如果你不想接到微信去,自己用用,其实到这里搭建完就OK了,他也有问答界面。3.搭建[chatgpt-on-wechat](https://github.com/zhayujie/chatgpt-on-wechat),接入微信,配置FastGpt把知识库问答系统接入到微信。这里建议先用个小号,以防有封禁的风险。搭建完后想拓展Cow的功能,我推荐Yaki.eth同学这篇教程[Yaki:GPT/MJ接入微信](https://waytoagi.feishu.cn/wiki/UADkwZ9B0iAWdTkFJIjcN7EgnAh),里面的cow插件能进行文件总结、MJ绘画的能力。完成上面3步就算OK了,那我们正式开始。

熊猫大侠:基于COW框架的ChatBot实现步骤

作者:熊猫大侠COW是基于大模型搭建的Chat机器人框架,将多模型塞进自己的微信里实现方案。基于这篇张梦飞同学也写了一个更适合小白的使用教程:[【保姆级】一步一图,手把手教你把AI接入微信副本](https://waytoagi.feishu.cn/wiki/A9w1wUcXSihF6XkeKVic8CXxnHb)本文带你实现:1、打造属于自己的ChatBot(文本对话、文件总结、链接访问、联网搜索、图片识别、AI画图等等)2、常用开源插件的安装应用正式开始前你需要知道:ChatBot相较于在各大模型网页端使用区别:本实现思路需要接入大模型API的方式实现(API单独付费)风险与注意事项:1、微信端因为是非常规使用,会有封号危险,不建议主力微信号接入。2、本文只探讨操作操作步骤,请依法合规使用-大模型生成的内容注意甄别,确保所有操作均符合相关法律法规的要求。-禁止将此操作用于任何非法目的。-处理敏感或个人隐私数据时注意脱敏,以防任何可能的滥用或泄露。多平台接入:微信、企业微信、公众号、飞书、钉钉等。多模型选择:GPT3.5/GPT4.0/Claude/文心一言/讯飞星火/通义千问/Gemini/GLM-4/LinkAI等等多消息类型支持:能处理文本、语音和图片,以及基于自有知识库进行定制的企业智能客服功能。多部署方法:本地运行、服务器运行、Docker的方式

Others are asking
基于多维评价数据,使用大模型生成个性化的家庭教育方案的可靠性高吗?
基于多维评价数据使用大模型生成个性化的家庭教育方案具有一定的可靠性,但也存在一些限制。 一方面,大模型在教育领域展现出了强大的能力。例如,能够为教师提供源源不断的真题库和错题练习库,模仿各类考试题型有模有样。在作文批改评分方面,如 GLM 模型,具备好词好句识别评测、作文综合评价评分等功能,能够综合考虑文章的多个维度给出评价,提供个性化反馈,保证评分的一致性等。 另一方面,也存在一些挑战。对于高学段理科等复杂领域,大模型的表现可能有限。在解读学生作文中的深层次含义,如隐喻、双关等修辞技巧,以及涉及特定文化背景和历史知识的内容时,仍存在一定难度。 然而,只要提示词到位、示例清晰,大模型在生成个性化家庭教育方案方面具有很大的潜力,可以为家长和孩子提供有价值的参考和帮助。但不能完全依赖大模型,还需要结合人工的判断和调整。
2025-04-13
怎么用大模型赚钱
以下是关于如何用大模型赚钱的一些分析和建议: 1. 面向各国政府做基础大模型本土化预训练:很多 Global 的量化基金在中国会水土不服,大模型也存在类似情况。OpenAI、Google、Meta 的模型在中文能力和对中国国情的优化上存在不足,不符合政策要求。这给了国内大模型公司做本土化预训练的机会,只要做到国内领先,即使和世界领先的模型有代际差,也能有市场。 2. 关注行业应用:大模型在企业中的落地应用是关键。目前大模型是典型的赢家通吃领域,巨头在资金、技术和数据方面有优势。但大模型企业需要将技术与更多场景结合,打造落地应用。例如,Gartner 预测到 2028 年至少有 15%的日常工作决策将由代理型 AI 自主做出。 3. 竞争格局与成绩:国内大模型行业已形成以百度、阿里、字节等科技大厂和创业“AI 六小虎”为主要玩家的竞争格局。2024 年是国内大模型落地元年,中标项目数量和金额大幅增长。如百度在中标数量和金额上排名领先,在金融等细分行业也表现出色。 需要注意的是,大模型领域竞争激烈,只有极少数公司能成功,且需要将大模型商业化,否则企业可能在赛道比拼中失败。同时,大模型的发展与国家政策密切相关,需要受到有效监管才能健康发展。
2025-03-25
你是一名DEEPSEEK专家,请用大白话交给小白掌握deepseek的使用,举例说明
DeepSeek 的使用对于小白来说可能有点复杂,但我尽量用大白话给您解释清楚。 比如说,您想让 DeepSeek 帮您生成“玄武门之变结束的当天,李世民在深夜写下一段独白,你觉得他会写什么?”这样的内容。 DeepSeek 会这样来处理: 1. 先回顾玄武门之变的历史背景,比如这场政变发生在 626 年,李世民杀了兄弟,逼父亲退位等。 2. 思考李世民当晚的心理,可能有释然、愧疚、恐惧、自责等多种复杂情绪,还要考虑他是被迫还是早有预谋。 3. 要让生成的独白不仅符合历史事实,还要有文学性,体现人性的复杂。比如要平衡他的野心与自责,对未来的抱负与对过去的悔恨。 4. 考虑当时的文化背景,像儒家思想对孝悌的重视,李世民的行为违背了这些伦理,他可能会内心挣扎,还可能为自己的行为找正当理由。 5. 按照您的需求,给独白加上一些文学修辞,像比喻、对仗、意象等,增强画面感。 另外,DeepSeek 还有个很厉害的地方,就是它能在独白文本中“自作主张”地加入括号里的场景描述,让整个输出更有画面感。比如“(夜风掀动案头《韩非子》,停在‘夫妻者,非有骨肉之恩也’那页)”、“(墨迹在‘弑’字上晕开一团)”、“(忽然扔笔,抓起铜镜)”这些句子,很难相信是 AI 写的。 总之,使用 DeepSeek 时要考虑很多方面的因素,它能根据您的提示词和需求,生成很精彩的内容。
2025-03-13
如果我是一个只会使用大模型对话,不了解提示词逻辑,想要逐步学习ai相关知识的人,你推荐什么呢
以下是为您逐步学习 AI 相关知识的推荐: 1. 关于大模型的思考与探讨:普通用户使用大模型时,语言不是关键,核心是向量空间中的游走脉络,输出时的语言翻译是次要的,且训练语料的中英文差异在于 embedding 环节。 2. 垂类模型与大模型公式:通过合适的模型、prompt 和 test 入口表达,用大模型公式调试出好效果以替代垂类模型,但微调垂类模型可能使大模型泛化能力下降,需分场景看待。 3. 提示词的挖掘:写提示词未挖掘出大模型的天花板,还有提升空间。 4. 读书方法与提示词相关书籍推荐:读书最有效的是笨方法,不取巧,花时间读。并推荐了从数学、作家、代码、原理角度写大模型的四本书。 5. 内置思维链提示词:针对小技巧类的思维链提示词有新模型能力涌现和大模型内置两个趋势,但对于某些如 COT 这类的内置可能会改变大模型的原味,对此存疑。 6. 编写提示词的经验与思考: 原汁原味与生效元素的平衡:为得到原汁原味的效果,需考虑是否反刻某些元素;生效的小技巧大模型可能会内置,如指定角色效果有变化。 压缩与歧义的处理:找到凝练的核心概念(a)后,根据对象用不同方式(b)表达,核心在于找到准确的 a,而寻找 a 的方法目前主要是多读多泡在相关领域。 持续学习与输出:通过阅读吸收输入,转换为自己的语言输出,与大模型交互提炼精华,多输出促进吸收输入。 7. 调教 AI 和提示词: 是否需要提示词工程,是否需要学提示词:持反对观点,像打字和写作一样。方法论不是关键,不断尝试和大模型交互,便是最佳方法。 和大模型交互需要遵循规则吗:不需要。网上流传最广的提示词方法论,是“给大模型一个角色”,这是一个好的策略,但不是必须遵循的原则,甚至所有规则都不是必须遵守的。可以在提示词里面设定规则,也可以聊着聊着临时更改规则,和大模型交互时完全不需要考虑规则。要考虑的就是是否达成了目的,如果没达成,那就锲而不舍的开一个新窗口,再尝试一下。如果还是不行,换个模型。 用 Markdown 格式清晰表达问题:Markdown 通过其易读性、格式化的灵活性和信息的清晰结构,使得与大模型的交流更加高效和精确。有助于模型更好地理解用户的意图。其优势包括结构清晰、格式化强调、适用性广。 8. 小白学习指南: 第一步:要有一个大模型帐号,至少已经熟悉和它们对话的方式。推荐 ChatGPT4 及国产平替: 第二步:看 OpenAI 的官方文档:
2025-03-06
怎么利用大模型训练自己的机器人
利用大模型训练自己的机器人可以参考以下内容: OpenAI 通用人工智能(AGI)的计划显示,在互联网上所有的图像和视频数据上训练一个与人类大脑大小相当的 AI 模型,将足以处理复杂的机器人学任务。常识推理隐藏在视频和文本数据中,专注于文本的 GPT4 在常识推理上表现出色。Google 最近的例子展示了机器人学能力可从大型视觉/语言模型中学习,在语言和视觉训练基础上,只需最少的机器人学数据,视觉和文本任务的知识就能转移到机器人学任务上。特斯拉训练的“Optimus”通过人类示范学习抓取物体,若人类示范是先进机器人学性能所需的一切,在互联网上所有视频上训练的大模型肯定能实现惊人的机器人学性能。 梦飞提供了在自己的电脑上部署 COW 微信机器人项目的教程,程序在本地运行,若关掉窗口进程结束,想持续使用需保持窗口打开和运行。以 Windows10 系统为例,注册大模型可参考百炼首页:https://bailian.console.aliyun.com/ ,需更改"model"和添加"dashscope_api_key",获取 key 可参考视频教程。 张梦飞提供了从 LLM 大语言模型、知识库到微信机器人的全本地部署教程,部署大语言模型包括下载并安装 Ollama,根据电脑系统下载:https://ollama.com/download ,安装完成后将下方地址复制进浏览器中确认安装完成:http://127.0.0.1:11434/ 。下载 qwen2:0.5b 模型,Windows 电脑按 win+R 输入 cmd 回车,Mac 电脑通过 Command(⌘)+Space 键打开 Spotlight 搜索输入“Terminal”或“终端”,复制命令行粘贴回车等待下载完成。
2025-03-03
利用大模型构建系统的工具
以下是关于利用大模型构建系统的工具的相关内容: 大模型的发展历程: 2017 年发布的 Attention Is All You Need 论文是起源。 2018 年,Google 提出 BERT,其创新性地采用双向预训练并行获取上下文语义信息和掩码语言建模,开创了预训练语言表示范式,参数规模为 110M 到 340M。 2018 年,OpenAI 提出 GPT,开创了仅使用自回归语言建模作为预训练目标而无需额外监督信号,展示了强大的语言生成能力,参数规模达 1750 亿。 2021 年,Meta 提出 Large LAnguage Model Approach(LLAMA),这是首个开源模型,为构建更大规模、更通用的语言模型提供了系统化的方法与工具,参数规模为十亿到千亿。 Inhai:Agentic Workflow:AI 重塑了我的工作流: 以 Kimi Chat 为例,它利用「网页搜索」工具在互联网上检索相关内容,并基于检索结果进行总结分析,给出结论。同时,PPT 中介绍了众多不同领域类型的工具,为大模型在获取、处理、呈现信息上做额外补充。 Planning:Agent 通过自行规划任务执行的工作流路径,面向简单或线性流程的运行。例如,先识别男孩姿势,再使用相关模型合成女孩图像,接着使用图像理解文本模型,最后语音合成输出。 Multiagent Collaboration:吴恩达通过开源项目 ChatDev 举例,可让大语言模型扮演不同角色相互协作,共同开发应用或复杂程序。 AI Agent 基本框架:OpenAI 的研究主管 Lilian Weng 提出“Agent=LLM+规划+记忆+工具使用”的基础架构,其中大模型 LLM 扮演 Agent 的“大脑”。规划包括子目标分解、反思与改进,将大型任务分解为较小可管理的子目标处理复杂的任务,反思和改进指对过去行动进行自我批评和自我反思,从错误中学习并改进未来步骤,提高最终结果质量。记忆用于存储信息。 开发:LangChain 应用开发指南 大模型的知识外挂 RAG: LangChain 是专注于大模型应用开发的平台,提供一系列组件和工具构建 RAG 应用: 数据加载器:从数据源加载数据并转换为文档对象,包含 page_content 和 metadata 属性。 文本分割器:将文档对象分割成多个较小的文档对象,方便后续检索和生成。 文本嵌入器:将文本转换为嵌入,用于衡量文本相似度实现检索。 向量存储器:存储和查询嵌入,通常使用索引技术加速检索。 检索器:根据文本查询返回相关文档对象,常见实现是向量存储器检索器。 聊天模型:基于大模型生成输出消息。 使用 LangChain 构建 RAG 应用的一般流程如下:(具体流程未给出)
2025-02-28
我想要一个助手,能帮助我快速计算式子
如果您想要一个能帮助快速计算式子的助手,可以通过以下步骤实现: 1. 搭建示例网站: 创建应用:点击打开提供的函数计算应用模板,参考相关图示选择直接部署,并填写获取到的百炼应用 ID 以及 APIKEY,其他表单项保持默认,点击页面左下角的创建并部署默认环境,等待项目部署完成(预计耗时 1 分钟)。 访问网站:应用部署完成后,在应用详情的环境信息中找到示例网站的访问域名,点击即可查看,确认示例网站已经部署成功。 2. 为网站增加 AI 助手: 增加 AI 助手相关代码:回到应用详情页,在环境详情的最底部找到函数资源,点击函数名称,进入函数详情页。在代码视图中找到 public/index.html 文件,然后取消相应位置的代码注释。最后点击部署代码,等待部署完成。 验证网站上的 AI 助手:重新访问示例网站页面以查看最新效果,此时网站的右下角会出现 AI 助手图标,点击即可唤起 AI 助手。 此外,零代码自建决策助手可以帮您解决生活中的决策问题,决策链设计包括: 1. 加权得分计算:将每个选项在各个标准上的得分与相应的权重相乘,然后求和,得出每个选项的总加权得分。 2. 机会成本分析:考虑选择每个选项时可能放弃的其他机会。 3. 简单情景分析:为每个选项构想最佳和最坏的情况。 4. 决策矩阵分析:将前面步骤的分析结果汇总到一个表格中,包括预期收益、机会成本、净收益、长期影响和风险评估。 决策阶段包括: 1. 敏感性分析:通过调整不同因素的权重,检验决策是否稳健。 2. 情感检验:反思个人对每个选项的情感反应,并考虑其与理性分析的一致性。 3. 提供最终决策建议:基于前面的所有分析,提出一个综合的建议。 案例——帮你选工作: 假设您是一名在职的产品经理,想跳槽并拿到两个不错的 offer,向决策助手求助。整个流程始于您向决策助手提出问题,决策助手随即要求您提供 offer 的基本信息。在您提供完信息后,决策助手开始定义基本的评估标准,并让您审核,还会根据您的喜好和目标给出权重分配的建议。在您认可权重分配后,决策助手对每个选项进行评分,评分采用 1 到 10 分的制度,涵盖所有评估标准。评分完成后,决策助手会整理出一个清晰的表格,包含各项评估标准的权重以及每个选项在各个标准下的得分。
2025-04-12
问题定义优化助手
以下是关于问题定义优化助手的相关内容: 市面上有很多 Prompt 框架,框架可理解为从不同角度为思考问题提供解决方案的路径。一个问题的解决通常包括问题背景(所需角色、具备的能力和资源)、问题目标(期望的输出结果和验收标准,如提供商务谈判的完整过程)、提供的资料信息、限制条件(如预算限制等)、角色技能(为目标服务所需调动的技能,如熟悉某个领域的商业案例)和工作流(解决问题时需完成的任务步骤,如信息收集、谈判策略设定等)。细致的内容可能得到更好的结果,但也可能限制可能性,这是一个平衡和折中的结果。 效果呈现方面,体验地址为 。 3 月 5 日作业要求大家看完小七姐的 5 篇入门指南并动手实践,写出自己的一条 prompt 及对话分享出来,提交格式为创作思路和目标|prompt 展示|输出结果。例如无上的目标是让大模型对自己的提问内容进行优化,其思路包括询问大模型“更好的提问”方法论、让 kimi 分析并优化等步骤。 在从 AI 助教到智慧学伴的应用探索中,提到了在不同学段和学科的应用场景,以及向 AI 大模型提问的问题设计,还涉及教育提示词优化助手。
2025-04-11
有哪些论文阅读助手相关的预置提示词
以下是一些论文阅读助手相关的预置提示词: 论文内容总结方面:GLM4Plus 结合良好的提示词能够帮助学生快速总结论文内容,提高梳理效率。例如:阅读完整篇文章之后需要花费大量时间总结和梳理文章内容,而大模型可以结合有效的提示词,迅速总结概括文档,从而节省时间。 论文内容翻译方面:GLM 结合良好的提示词能够帮助学生快速翻译论文内容,提高论文阅读效率。 论文内容扩写润色方面:精心设计的润色提示词可以根据特定场景进行调整,以便生成与特定平台风格相匹配的多样化润色结果。比如针对小红书的使用场景,调整提示词以匹配其特有的口语化、轻松愉快的氛围,从而将论文中的结论部分润色成适合在小红书上分享的生活化内容。 此外,还有以下相关提示词: Claude2 中文精读方面:零提示生成直接引用,如提示以获取相关引语。文档摘要或文本+直接引语通常能使答案更准确。 小七姐的教程中提到:比如让 AI 帮阅读文档时,可以写如“于是这个提示词解决了你自己,和任何收到你 Prompt 的人微调几个关键信息就能自动让 GPT 或者 Kimi 帮你阅读一篇论文而且生成不错的总结啦!”的提示词。还可以选择如“情境:”这样的基础提示词框架入手。
2025-04-08
作为财务人员,可以开发什么样的AI助手
作为财务人员,可以开发以下类型的 AI 助手: 1. 税务方面: 利用引刀 AP 创建网页实现智能解答税务问题。 结合飞书避免信息泄露和实现自动回复。 2. 日常工作方面: RPA 流程自动化机器人,可替代电脑办公中的重复有逻辑工作,如开票、网银流水下载等,为企业降本增效。 财经数据分析助手,能分析和解释财经数据,提供投资建议。 风险评估模型,进行财务风险评估和预测。 自动化金融报告编制,自动化编制和解读财务报告。
2025-04-01
个人AI助手可以有什么方向的应用
个人 AI 助手的应用方向广泛,包括但不限于以下几个方面: 1. 教育培训: 数字教师:如让牛顿亲自授课《牛顿运动定律》,让白居易讲述《长恨歌》背后的故事。可以与历史人物对话交流,不受时空限制,实现一对一辅导,提高学生参与感,还能根据学生情况提供定制化学习计划和资源,缓解教育资源不平等问题。 数字陪伴:作为孩子的玩伴,给予赞美等社会奖励,促进儿童成长和提高学习成绩。 2. 宠物相关: AI 宠物助手:基于自然语言处理和计算机视觉,帮助主人照顾宠物,如自动识别宠物情绪、提供饮食建议、监测健康状况等。 AI 宠物互动玩具:利用 AI 技术开发智能互动玩具,增强宠物娱乐体验,如会自主移动并引起宠物注意、会发声和互动的玩具等。 AI 宠物图像生成:使用生成式 AI 模型,根据文字描述生成宠物形象图像,帮助主人定制个性化形象。 AI 宠物医疗诊断:利用计算机视觉和机器学习技术,开发辅助诊断系统,通过分析症状图像和病历数据提供初步诊断建议。 AI 宠物行为分析:基于传感器数据和计算机视觉,分析宠物行为模式,帮助主人了解宠物需求和习性。 3. 信息检索与分析: Google Gemini 的 Deep Research:智能信息检索与分析工具,基于主题快速检索全网资源并生成综合报告,支持导出为 Google Docs 文档格式,适合学术研究、内容创作、行业分析等场景,整合了 Google 核心数据源,结合模型多模态处理能力,可处理大量上下文信息。 第四范式发布的桌面端 AI 搜索工具:基于人工智能技术的全能搜索助手,提升用户在本地文件、即时通信、网盘等各类在线应用中的搜索体验,可通过简单描述查询意图进行模糊搜索,支持实时预览搜索结果。
2025-04-01
coze小红书爆款文章生成助手
以下是关于 Coze 小红书爆款文章生成助手的相关内容: 1. 画小二的 Coze 工作流配置:包括抖音热门视频转小红书图文的详细参数配置,如整体结构图、开始模块、Get_Video 模块、LinkReaderPlugin 模块、标题大模型、内容大模型、图片 Prompt 大模型、文生图 ImageToolPro 以及输出结果的参数配置。在标题和正文生成方面,有具体的要求和技能,如采用二极管标题法、使用爆款关键词、遵循小红书平台标题特性、保证正文口语化且长短在 200 字左右等。 2. 一泽 Eze 提出的样例驱动的渐进式引导法:强调精彩的 Prompt 对驱动 AI Agent 稳定运作的重要性,指出高质量 Prompt 依赖用户的逻辑思考和知识经验抽象表达,介绍了通过 12 个初始样例引导 AI 定制完美提示词的方法。 3. 雪梅 May 的 AI 学习日记:记录了对 Coze 的学习过程,包括了解到 Coze 是字节跳动的 AI agent 产品,可用工作流方式制作 AI 智能体,如爸妈防骗助手、热点文章生成器等,并分享了自己对 Coze 的初步理解,认为它能让无技术背景的人实现想法。
2025-03-24
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
flowith根据自然语言构建一个直接使用的工作流吗,如何向flowith提出要求
Flowith 可以根据自然语言构建工作流。即使没有专业编程技能,只要能用清晰的自然语言描述出想要的各个 Agents 具备的行为和功能,就可以快速制作多 Agents 应用或创建代理式工作流。 使用工作流的步骤如下: 1. 配置工作流: 在 Code 节点内使用 IDE 工具,通过 AI 自动生成代码或编写自定义代码逻辑,来处理输入参数并返回响应结果。 该节点支持 JavaScript、Python 运行时,需注意不同运行时的特定事项。 可在 IDE 底部单击尝试 AI,并输入自然语言设定代码逻辑,也可选中代码片段通过快捷键唤起 AI 并输入自然语言让其修改代码。 2. 通过工作流数据库节点操作数据表: 在工作流中添加数据库节点对数据表进行操作,可通过 NL2SQL 方式和代码方式进行调用,支持完整读写模式。 参考以下操作添加并配置工作流节点: 单击页面顶部的工作流页签,然后单击创建工作流。 输入工作流名称和使用描述,然后单击确认。 在基础节点页签下,将数据库节点拖入到工作流配置画布区域。 根据相关信息配置数据库节点,包括输入添加 SQL 执行中需要的参数,输入要执行的 SQL 语句,可单击自动生成使用大模型生成 SQL。 需注意不支持 Select语法、多表 Join 操作,最多返回 100 行数据。在配置数据库节点前,要确保已经搭建了一个 Bot,并在这个 Bot 中创建好了数据表。
2025-03-26
构建知识库有什么要注意的?
构建知识库时需要注意以下几点: 1. 在使用在线检索流程生成结果时: 重排序的结果通常因大模型上下文有限制而不会都被使用,可以设置阈值进行截断,如只使用前 3 5 个文档,或只取相关性分数大于某个值的文档。 一些先进的 RAG 系统会对选中的文档进行摘要或压缩,以在有限空间内包含更多相关信息。 2. 对于后置处理,可能包括敏感内容检测和移除、格式化输出等。 3. 创建智能体的知识库时: 手动清洗数据可提高准确性,如创建画小二课程的 FAQ 知识库时,飞书在线文档中每个问题和答案以分割。 对于本地文档,不能一股脑全部放进去训练,应先放入大的章节名称内容,再按固定方式细化处理。 4. 使用 Coze 搭建知识库时: 文档的分片策略会严重影响查询结果,RAG 方案存在跨分片总结和推理能力弱、文档有序性被打破、表格解析失败等问题。 希望以上内容对您有所帮助。
2025-03-25
如何构建知识库
构建知识库的方法主要有以下两种: 使用 flowith 构建知识库: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 点击左上角的加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. Flowith 会对文件逐个进行抽取等处理,无需操心具体过程,等待处理完毕。 5. 处理完毕后,可以在知识库管理页面测试检索,输入关键词过滤相关内容。 使用 Dify 构建知识库: 1. 准备数据:收集需要纳入知识库的文本数据,包括文档、表格等格式,并对数据进行清洗、分段等预处理,确保数据质量。 2. 创建数据集:在 Dify 中创建一个新的数据集,并将准备好的文档上传至该数据集,为数据集编写良好的描述。 3. 配置索引方式:Dify 提供了三种索引方式供选择,包括高质量模式、经济模式和 Q&A 分段模式,根据实际需求选择合适的索引方式。 4. 集成至应用:将创建好的数据集集成到 Dify 的对话型应用中,作为应用的上下文知识库使用,在应用设置中配置数据集的使用方式。 5. 持续优化:收集用户反馈,对知识库内容和索引方式进行持续优化和迭代,定期更新知识库,增加新的内容以保持时效性。 总的来说,Dify 提供了一个可视化的知识库管理工具,关键步骤包括数据准备、数据集创建、索引配置,以及将知识库集成到应用中并持续优化。
2025-03-20
我是新手小白,如何用最简单的方式构建多智能体
对于新手小白构建多智能体,以下是一种较为简单的方式: 1. 快速搜索补充参考信息:根据用户的任务调研市场上主流的开源搜索引擎技术架构,使用搜索工具 API WebSearchPro 补充更多信息,具体可参考。 2. 用模型规划和分解子任务:使用大模型如 GLM40520 帮助规划,把用户问题拆分成若干子搜索任务,并转换为 JSON 格式。JSON 格式处理可参考。 3. 用搜索智能体完成子任务:AI 搜索智能体具备联网搜索和自主分析并进行多轮搜索任务的能力。智能体 API 的调用方式可参考。智能体 id 为 659e54b1b8006379b4b2abd6,简介为连接全网内容,精准搜索,快速分析并总结的智能助手。 4. 总结子任务生成思维导图:智能体能调用各种插件,如思维导图、流程图、PPT 工具等,可根据工作需要选择。智能体 API 的调用方式可参考。智能体 id 为 664e0cade018d633146de0d2,简介为告别整理烦恼,任何复杂概念秒变脑图。 另外,OpenAI 官方开源的多智能体框架「Swarm」具有一定优势,其「Handoffs」处理了不同智能体之间交接的逻辑。例如构建客服多智能体,可能只需要准备普通接线客服和宽带客服两个 Agent 。 在实际操作中,如创建 Coze 智能体获取笔记和评论信息,要创建智能体并使用单 Agent 对话流模式,编排对话流,进行测试和发布等步骤。发布时要注意相关配置,如输出类型、输入类型等。
2025-03-20
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14