Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

如何搭建精准回答的本地知识库

Answer

搭建精准回答的本地知识库可以参考以下步骤:

  1. 登录扣子
  2. 在左侧导航栏的工作区区域,选择进入指定团队。
  3. 在页面顶部进入知识库页面,并单击创建知识库。
  4. 在弹出的页面配置知识库名称、描述,并单击确认。需注意一个团队内的知识库名称不可重复,必须是唯一的。
  5. 在单元页面,单击新增单元。
  6. 在弹出的页面选择要上传的数据格式(默认是文本格式),然后选择一种文本内容上传方式完成内容上传。

如果想要对知识库进行更加灵活的掌控,可以使用额外的软件AnythingLLM,其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:

  1. 第一步:选择大模型。
  2. 第二步:选择文本嵌入模型。
  3. 第三步:选择向量数据库。

在AnythingLLM中有一个Workspace的概念,可以创建自己独有的Workspace跟其他的项目数据进行隔离。具体操作如下:

  1. 首先创建一个工作空间。
  2. 上传文档并且在工作空间中进行文本嵌入。
  3. 选择对话模式,AnythingLLM提供了两种对话模式:
    • Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案。
    • Query模式:大模型仅仅会依靠文档中的数据给出答案。
  4. 测试对话。
Content generated by AI large model, please carefully verify (powered by aily)

References

创建并使用知识库

你可以将文本内容上传至知识库中,作为回复用户问题的内容源或通过向量搜索进行内容召回。例如你可以将产品使用文档上传至知识库中,创建一个专属的产品咨询顾问Bot来精准回答用户关于产品使用的相关问题。参考以下操作,创建知识库并上传文本内容。1.登录[扣子](https://www.coze.cn/home)。2.在左侧导航栏的工作区区域,选择进入指定团队。3.在页面顶部进入知识库页面,并单击创建知识库。4.在弹出的页面配置知识库名称、描述,并单击确认。一个团队内的知识库名称不可重复,必须是唯一的。1.在单元页面,单击新增单元。2.在弹出的页面选择要上传的数据格式,默认是文本格式,然后选择一种文本内容上传方式完成内容上传。

这可能是讲 Coze 的知识库最通俗易懂的文章了

终于到了我最想讲的一段了,因为自从我发布了这个教程[大圣:胎教级教程:万字长文带你使用Coze打造企业级知识库](https://waytoagi.feishu.cn/wiki/CT3UwDM8OiVmOOkohPbcV3JCndb)之后,我收到的最多问题之一就是:为什么我将我的笔记全部投喂给Coze之后,他的回答很不准确呢?为了回答这个问题,我每次都要语音个10-20分钟,这也是我写这篇文章的目的,毕竟坑是自己埋下的,含着泪也要填完如果你是要利用Coze或者FastGPT等工具来搭建知识库,那么在当下的技术条件下,你一定要有个预期,当下这些平台的RAG能力仅仅对问答这种场景是友好的,其他的场景效果都差强人意~如果你需要企业级的复杂知识库场景,你可能需要找专业的团队了,他们的收费在几万到几十万不等(可以联系我,我这边有靠谱的资源)如果你想使用专门搭建个人知识库的软件,我推荐你看下的另一篇文章:[手把手教你本地部署大模型以及搭建个人知识库](https://waytoagi.feishu.cn/wiki/ZKGmwsQhTihYZ8kdu7uccF1lnQc?from=from_copylink)这篇文章你忽略本地部署大模型这一环节,你直接看其中推荐的一个软件这款软件据说效果不错(但是需要你自己对接一些额外的API),并且我建议你先了解RAG的原理再去使用,否则你可能会头大。我目前还没有深度使用,等后续使用了,我再了些教程!

手把手教你本地部署大模型以及搭建个人知识库

如果想要对知识库进行更加灵活的掌控,我们需要一个额外的软件:AnythingLLM。这个软件包含了所有Open WebUI的能力,并且额外支持了以下能力选择文本嵌入模型选择向量数据库[heading2]AnythingLLM安装和配置[content]安装地址:https://useanything.com/download当我们安装完成之后,会进入到其配置页面,这里面主要分为三步1.第一步:选择大模型1.第二步:选择文本嵌入模型1.第三步:选择向量数据库[heading2]构建本地知识库[content]AnythingLLM中有一个Workspace的概念,我们可以创建自己独有的Workspace跟其他的项目数据进行隔离。1.首先创建一个工作空间1.上传文档并且在工作空间中进行文本嵌入1.选择对话模式AnythingLLM提供了两种对话模式:Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案Query模式:大模型仅仅会依靠文档中的数据给出答案1.测试对话当上述配置完成之后,我们就可以跟大模型进行对话了[heading1]六、写在最后[content]我非常推崇的一句话送给大家:看十遍不如实操一遍,实操十遍不如分享一遍如果你也对AI Agent技术感兴趣,可以联系我或者加我的免费知识星球(备注AGI知识库)

Others are asking
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
如何去训练ai,让ai可以更精准的回答问题分析趋势
要训练 AI 使其更精准地回答问题和分析趋势,可以从以下几个方面入手: 检索原理: 1. 信息筛选与确认:系统会对检索器提供的信息进行评估,筛选出最相关和最可信的内容,同时验证信息的来源、时效性和相关性。 2. 消除冗余:识别并去除多个文档或数据源中的重复信息,避免在生成回答时出现重复或矛盾的内容。 3. 关系映射:分析不同信息片段之间的逻辑和事实关系,如因果、对比、顺序等,构建结构化的知识框架,使信息在语义上更连贯。 4. 上下文构建:将筛选和结构化的信息组织成连贯的上下文环境,包括对信息进行排序、归类和整合,形成统一的叙述或解答框架。 5. 语义融合:在必要时合并意义相近但表达不同的信息片段,减少语义重复并增强信息表达力。 6. 预备生成阶段:将整合好的上下文信息编码成适合生成器处理的格式,如转化为适合输入到生成模型的向量形式。 大模型生成回答: 最终全新的上下文被传递给大语言模型,大语言模型根据提供的信息回答问题。因为这个上下文包括了检索到的信息,所以相当于同时拿到了问题和参考答案,通过大语言模型的全文理解,生成准确和连贯的答案。 批判性思维与复杂问题解决: 批判性思维指分析、评估、推理并做出明智判断的能力,在 AI 时代尤为关键。培养批判性思维需要养成质疑习惯,通过辩论、逻辑训练、阅读反面意见等方式锻炼,注重逻辑推理和定量分析能力的培养。复杂问题解决与批判性思维密切相关,指在不确定情境下分析问题、设计解决方案的能力,往往需要综合运用多种思维技能,通过参与实际复杂项目、案例研究来提高经验,可利用 AI 作为资料提供者或头脑风暴助手,但关键在于人类自己的分析和决策过程。 纯强化学习: DeepSeek R1 引入纯强化学习,不依赖大量人类标注数据,而是让 AI 通过自我探索和试错来学习。在“冷启动”阶段,通过少量人工精选的思维链数据进行初步引导,建立符合人类阅读习惯的推理表达范式,随后主要依靠强化学习,在奖励系统的反馈下(包括准确率奖励和格式奖励),自主探索推理策略,不断提升回答的准确性,实现自我进化。纯强化学习有可能解锁新的人工智能水平,DeepSeek R1 更注重学习推理的底层策略,培养通用推理能力,实现跨领域的知识迁移运用和推理解答。
2025-03-07
怎么在AI文生图中精准的输出想要的文字
要在 AI 文生图中精准输出想要的文字,可以参考以下方法: Recraft 模型: 提供提示词加上文本位置,因为模型获得的输入数据越多,越容易产生精确输出。遵循指令比仅理解提示词更容易。 Tusiart 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 ControlNet:可控制图片中特定的图像,如人物姿态、生成特定文字等,属于高阶技能。 局部重绘:下篇再学。 设置 VAE:选择 840000 即可。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样算法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 Liblibai 模型: 定主题:明确生成图片的主题、风格和表达的信息。 选择 Checkpoint:根据主题选择内容贴近的模型,如麦橘、墨幽的系列模型。 选择 lora:寻找内容重叠的 lora 以控制图片效果及质量。 设置 VAE:选择 840000 即可。 CLIP 跳过层:设成 2 。 Prompt 提示词:用英文写需求,使用单词和短语组合,用英文半角逗号隔开,不用管语法和长句。 负向提示词 Negative Prompt:用英文写避免产生的内容,同样用单词和短语组合,用英文半角逗号隔开,不用管语法。 采样方法:一般选 DPM++2M Karras,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 时,迭代步数在 30 40 之间。 尺寸:根据个人喜好和需求选择。 生成批次:默认 1 批。
2025-03-06
如果用AI精准且快速总结视频网站的视频。
要使用 AI 精准且快速总结视频网站的视频,可参考以下步骤: 1. 对于有字幕的视频,如 B 站视频,先确认视频栏下方是否有字幕按钮,若有则说明视频作者已上传字幕或后台适配了 AI 字幕。 2. 安装油猴脚本“Bilibili CC 字幕工具”,安装后刷新浏览器,点击字幕会出现“下载”按钮。 3. 点击下载按钮,选择多种字幕格式,如带时间或不带时间的。 4. 将下载的字文字内容全选复制发送给 GPTs 进行总结。 5. 总结完视频内容后,还可继续向 AI 提问更多细节内容或与其探讨视频内容。 此外,通义千问的 Qwen2.5VL 模型在视频理解方面也有出色表现,如支持最长 1 小时视频理解,具备秒级的事件定位能力,能够对视频的不同时间段进行要点总结等。
2025-03-06
图片的提示词的精准度
以下是关于图片提示词精准度的相关内容: 画面精度提示词: high detail(高细节) hyper quality(高品质) high resolution(高分辨率) FHD, 1080P, 2K, 4K, 8K 8k smooth(8K 流畅) 渲染效果提示词: Unreal Engine(虚幻引擎) octane render(渲染器) Maxon Cinema 4D 渲染器 architectural visualisation(建筑渲染) Corona Render(室内渲染) Quixel Megascans Render(真实感) VRay(V 射线) Behance C4D 3D blender surreal photography(超现实摄影) realistic 3D(真实 3D) zbrush 在描述图片提示词时,通常的逻辑包括:人物及主体特征(服饰、发型发色、五官、表情、动作),场景特征(室内室外、大场景、小细节),环境光照(白天黑夜、特定时段、光、天空),画幅视角(距离、人物比例、观察视角、镜头类型),画质(高画质、高分辨率),画风(插画、二次元、写实)。通过这些详细的提示词,能更精确地控制绘图。 对于新手而言,有以下辅助书写提示词的方法和网站: 下次作图时,先选择模板,点击倒数第二个按钮快速输入标准提示词。 功能型辅助网站,如:http://www.atoolbox.net/,通过选项卡方式快速填写关键词信息。 https://ai.dawnmark.cn/,每种参数有缩略图参考,方便直观选择提示词。 去 C 站(https://civitai.com/)抄作业,每一张图都有详细参数,可点击复制数据按钮,粘贴到正向提示词栏,Stable Diffusion 会自动匹配参数,但要注意图像作者使用的大模型和 LORA,不然即使参数一样,生成的图也会不同。也可以只取其中较好的描述词,如人物描写、背景描述、小元素或画面质感等。 提示词所做的工作是缩小模型出图的解空间,即缩小生成内容时在模型数据里的检索范围,而非直接指定作画结果。提示词的效果受模型影响,不同模型对自然语言、单词标签等语言风格的反应不同。 提示词中可以填写以下内容: 自然语言:可以使用描述物体的句子作为提示词,大多数情况下英文有效,也可用中文,避免复杂语法。 单词标签:使用逗号隔开的单词作为提示词,一般使用普通常见单词,单词风格要和图像整体风格搭配,避免拼写错误,可参考 Emoji、颜文字:Emoji 表情符号准确且在语义准确度上表现良好,对构图有影响。关于 emoji 确切含义,可参考。对于使用 Danbooru 数据的模型,西式颜文字可在一定程度上控制出图的表情。
2025-02-26
我想了解现在有什么文生图的模型或者工具,可以精准的按照prompt给的位置大小把文字写在最终出来的图像上的,这个字不会是幻觉,是实打实的字,或者有没有通过训练lora来达到这个效果的
以下是一些关于文生图的模型和工具的信息: Tusiart: 定主题:确定生成图片的主题、风格和表达的信息。 选择基础模型 Checkpoint:可选用麦橘、墨幽等系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 ControlNet:可控制图片中特定的图像。 设置 VAE:选择 840000 。 Prompt 提示词:用英文写需求,单词和短语用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语用英文半角逗号隔开。 采样算法:一般选 DPM++2M Karras ,也可参考模型作者推荐的采样器。 采样次数:选 DPM++2M Karras 时,采样次数在 30 40 之间。 尺寸:根据需求和喜好选择。 吐司网站: 文生图的操作方式:在首页的对话生图对话框输入文字描述即可生成图片,不满意可通过对话修改。 模型及生成效果:Flex 模型对语义理解强,不同模型生成图片的积分消耗不同,生成效果受多种因素影响。 图生图及参数设置:可基于图片做延展,能调整尺寸、生成数量等参数,高清修复消耗算力多,建议先出小图。 特定风格的生成:国外模型对中式水墨风等特定风格的适配可能不足,可通过训练 Lora 模型改善。 Liblibai: 定主题:确定生成图片的主题、风格和表达的信息。 选择 Checkpoint:可选用麦橘、墨幽等系列模型。 选择 lora:寻找与生成内容重叠的 lora 以控制图片效果和质量。 设置 VAE:选择 840000 。 CLIP 跳过层:设成 2 。 Prompt 提示词:用英文写需求,单词和短语用英文半角逗号隔开。 负向提示词 Negative Prompt:用英文写避免产生的内容,单词和短语用英文半角逗号隔开。 采样方法:一般选 DPM++2M Karras ,也可参考模型作者推荐的采样器。 迭代步数:选 DPM++2M Karras 时,迭代步数在 30 40 之间。 尺寸:根据需求和喜好选择。 生成批次:默认 1 批。
2025-02-25
如何精准提问解决问题
要精准提问解决问题,可以参考以下几点: 1. 在使用类似 Cursor 等工具时,如果在提示栏中按 Option/Alt Enter,它将回答您关于选择和附加上下文的任何问题。此对话内容可在后续生成中进一步使用,在其提出响应后键入“do it”即可在快速提问后生成代码。 2. 相信类似 GPT 等工具的能力,大胆提要求让其帮忙完成。 3. 明确自己的需求,向 GPT 提的要求尽量准确,如同给员工安排工作。 4. 不断追问,只要不明白,就目标明确、表达精确地追问。 5. 对于 GPT 不了解您工作环境和个性需求的情况,提供准确信息,如直接贴出文件目录地址,请其直接处理。 6. 锻炼语言表述能力,更精准地用语言描述问题。因为在语言模型时代,一个好的问题某些时候比答案更重要,语言本身也代表着人类思维的外放,与文明诞生有关联。 7. 具备业务理解和 AI 嵌入能力,找到业务中应用大模型的场景,将业务和大模型算法结合,理解模型在业务中的边界。 8. 培养维度转换能力,将各种问题转化为语言问题,将业务中的数据转化为语言描述,将通用模块问题转化为通用问题模块,把所有信息都转化为语言信息后再交流。 9. 在业务助手中,可采用助手方式,主要进行工作辅助,不在主业务流程内,大模型负责优化、检索、启发、提供思路等,帮助人提高效率、多维度思考;也可采用业务环方式,大模型经过调整和 prompt 工程后,作为接口服务,进入到主业务流程中,自动处理内容并生成结果。
2025-01-30
coze搭建工作流调用deepseek如何把模型的输出存入到多维表中
以下是将模型的输出存入到多维表中的步骤: 1. 逐步搭建 AI 智能体: 搭建整理入库工作流。 设置大模型节点提取稍后读元数据,使用 MiniMax 6.5s 245k,设置最大回复长度至 50000,以确保能完整解析长内容网页。 进行日期转时间戳,后续的飞书多维表格插件节点在入库日期字段时只支持 13 位时间戳,需要使用「日期转时间戳time_stamp_13」插件进行格式转化。 把稍后读元数据转换为飞书多维表格插件可用的格式,飞书多维表格插件目前(2024 年 08 月)只支持带有转义符的 string,以 Array<Object>格式输入,所以必须将之前得到的元数据数组进行格式转换。 添加「飞书多维表格add_records」插件,只需要设置{{app_token}}与{{records}}参数,将元数据写入飞书表格。 2. 搭建 Coze 工作流: 打开 Coze 的主页,登录后,在【工作空间】创建一个智能体。 在编排页面,给智能体编辑好人设,可先写一个简单的,然后点右上角自动优化,系统会自动补全更精细的描述。点击工作流的+,创建一个工作流。 大模型节点把 input 给到 DeepSeek,让 DeepSeek 按照提前规定的输出框架生成对应文案。 生图节点将输出给到图像生成组件画图。 结束输出时,两个输出给到最终的 end 作为最终的输出。注意在编写系统提示词时,如果需要 input 可被 DeepSeek 调用,需要用{{input}}作为参数引入,不然大模型不知道自己需要生成和这个 input 相关的结果。编排完,点击【试运行】,调试至满意后点击发布。
2025-04-14
搭建在线知识库,在线客服
以下是关于搭建在线知识库和在线客服的相关内容: RAG 流程: 自顶向下,RAG 的流程分为离线数据处理和在线检索两个过程。 离线数据处理的目的是构建知识库,知识会按照某种格式及排列方式存储在其中等待使用。 在线检索是利用知识库和大模型进行查询的过程。 以构建智能问答客服为例,了解 RAG 流程中的“是什么”与“为什么”同等重要。 创建智能体: 手动清洗数据创建知识库: 点击创建知识库,创建画小二课程的 FAQ 知识库。 知识库的飞书在线文档中,每个问题和答案以“”分割。 选择飞书文档、自定义,输入“”,可编辑修改和删除。 点击添加 Bot,可在调试区测试效果。 本地文档: 注意拆分内容以提高训练数据准确度。 以画小二课程为例,先放入大章节名称内容,再按固定方式细化处理每个章节。 发布应用:点击发布,确保在 Bot 商店中能搜到。 开发:GLM 等大模型外接数据库: 项目启动:包括 web 启动(运行 web.py,显存不足调整模型参数,修改连接)、API 模式启动、命令行模式启动。 上传知识库:在左侧知识库问答中选择新建知识库,可传输 txt、pdf 等。可以调整 prompt,匹配不同的知识库,让 LLM 扮演不同的角色,如上传公司财报充当财务分析师、上传客服聊天记录充当智能客服等。MOSS 同理。
2025-04-13
如果你是一个AI领域的专家,我有个问题关于应用AI来学习的:假设我有一个网上的课程,然后我把这个网上的课程全部视频都下载下来,然后输入给AI,让AI来学习,如果以后我问AI关于这方面的问题的话,AI能像课程老师一样思考,来回答我的问题吗
以下是关于您提问的相关内容: AI 的学习方式与人类有相似之处,也有不同之处。在医疗保健领域,为产生真正的改变,AI 应像人类一样学习。成为某个领域顶尖人才通常从多年密集信息输入开始,如正规学校教育和学徒实践,通过面对面学习获取书本外的信息。对于 AI 来说,当前学习方式及技术人员对待方式存在问题,应通过堆叠模型训练,而非仅依靠大量数据和生成模型。例如先训练生物学、化学模型,再添加特定数据点。开发具有潜在空间层次结构的堆叠 AI 模型,能反映对基本元素的理解和预测能力,可能会平行于人类教育范例发展,也可能专门发展出新型专业知识。创建特定领域的专家 AI 可能比全能 AI 更容易,且需要多个专家 AI 提供多样意见。同时,应让 AI 接触现实世界互动,避免复制危险偏见。但不能因恐惧传播人类偏见而限制探索 AI 帮助民主化人类专家知识的意愿。 然而,您所提到的将网上课程视频全部下载输入给 AI 让其学习,然后期望它像课程老师一样回答问题,目前的技术和情况还不能完全保证实现。AI 的学习和回答能力取决于其训练数据、模型结构和算法等多种因素。
2025-04-13
你是基于哪种ai模型的回答?
我是基于 Aily 和云雀大模型进行回答的。 Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业轻松构建和发布 AI 应用,推动业务创新和效率提升。云雀是由字节跳动研发的语言模型,能通过便捷的自然语言交互,高效完成互动对话、信息获取、协助创作等任务。 您可以通过以下两种方式使用我: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,请在知识库首页获取最新二维码),然后点击加入,直接@机器人即可。 2. 在 WaytoAGI.com 的网站首页,直接输入您的问题,即可得到回答。
2025-04-11
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
具身智能是什么技术?用小学生能理解的话术回答
小朋友,具身智能呀,是人工智能里的一种很有趣的技术。 它说的是像机器人、虚拟代理这样的智能体,要通过和真实世界或者虚拟环境直接打交道来变得更聪明。 比如说,智能体要有能感觉周围环境的能力,能自己到处走,能拿东西、操作东西,还能学习新本领,适应新环境。 具身智能很在意智能体的“身体”,这个“身体”可以是机器人的样子,也可以是游戏里的虚拟角色。这些“身体”能帮智能体和环境互动,还会影响智能体学习。 像机器人可以通过它的手学会抓东西、摆弄东西,虚拟代理在游戏里能学会解决问题。 研究具身智能要用到好多知识,像机器人学、认知科学、神经科学还有计算机视觉。 在机器人领域,具身智能能让机器人更好地理解和适应我们人类的生活环境,跟我们交流更自然。在虚拟现实、增强现实和游戏里,也能让我们玩得更开心。 不过呢,具身智能还有一些难题要解决,比如怎么设计智能体的身体让它更聪明,怎么让它在复杂的环境里好好学习,还有怎么处理它和人类社会相关的一些问题。 简单说,具身智能就是给聪明的人工智能装上“身体”,让它能和周围环境更好地交流互动。
2025-04-05
作为小白如何在飞书搭建AI工具知识库机器人?分成前期、中期、后期流程回答
以下是小白在飞书搭建 AI 工具知识库机器人的流程,分为前期、中期和后期: 前期: 1. 搭建,用于汇聚整合多种大模型接口,方便后续更换使用不同的大模型,并了解如何白嫖大模型接口。 2. 确定机器人的功能范围,例如: 支持用户发送“关键字”,自助获取分享的“AI 相关资料链接”。 能够回答 AI 相关知识,优先以“自己的知识库”内容回答,不足时调用 AI 大模型,并在答案末尾加上“更多 AI 相关信息,请链接作者:jinxia1859”。 能发布在微信公众号上,作为“微信客服助手”。 中期: 1. 搭建,这是一个知识库问答系统,将知识文件放入,并接入上面的大模型作为分析知识库的大脑,若不想接入微信,到此搭建完成即可,它也有问答界面。 2. 准备以下内容: 根据机器人的目的和核心能力编写 prompt 提示词。 整理“关键字”与“AI 相关资料链接”的对应关系,可以用 word、txt、excel 等方式。 创建自己的【知识库】用于回答 AI 相关知识。 创建【工作流】,控制 AI 按照要求处理信息。 准备好自己的微信公众号。 后期: 搭建,其中的 cow 插件能进行文件总结、MJ 绘画等。
2025-04-03
我想了解如何提取自己的声音并实现大模型以我的声音回答我
要提取自己的声音并实现大模型以您的声音回答,目前提供的知识库中没有直接相关的详细内容。但可以为您提供一些可能有用的思路和参考方向: 对于声音提取,可能需要使用专业的音频处理软件和设备,将您的声音录制并进行处理和分析。 关于让大模型以您的声音回答,这可能涉及到语音合成技术。您可以先了解一些常见的语音合成模型和工具,例如通过创建大模型问答应用,获取推理 API 服务等。 同时,还可以参考一些关于大模型和语音处理的专业知识,比如大模型的本质是基于语言的概率模型,通过设置合适的 Prompt 来引导模型输出更准确的结果。 由于知识库中没有确切的针对您需求的详细步骤和方法,以上内容仅供您初步参考。
2025-04-01