直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

提供“与知识库对话”的产品服务

回答

以下是关于“与知识库对话”的产品服务相关内容:

如果想要对知识库进行更加灵活的掌控,可以使用额外的软件 AnythingLLM。其安装地址为:https://useanything.com/download 。安装完成后进入配置页面,主要分为三步:选择大模型、选择文本嵌入模型、选择向量数据库。

AnythingLLM 中有 Workspace 的概念,可创建独有的 Workspace 与其他项目数据隔离。构建本地知识库时,首先创建工作空间,然后上传文档并在工作空间中进行文本嵌入,接着选择对话模式,包括 Chat 模式(大模型根据训练数据和上传的文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案),最后进行测试对话。

在商业化问答场景中,以一个问答机器人界面为例,其配置包括 AI 模型、提示词和知识库。模型好比是学习过无数知识的人,提示词是告诉模型扮演的角色和专注的技能,知识库则是给模型的工作手册。例如设定 AI 模型为阿里千问模型,提示词设定角色为“美嘉”,知识库放置《爱情公寓》全季剧情。

看十遍不如实操一遍,实操十遍不如分享一遍。如果对 AI Agent 技术感兴趣,可以联系相关人员或者加入免费知识星球(备注 AGI 知识库)。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

手把手教你本地部署大模型以及搭建个人知识库

如果想要对知识库进行更加灵活的掌控,我们需要一个额外的软件:AnythingLLM。这个软件包含了所有Open WebUI的能力,并且额外支持了以下能力选择文本嵌入模型选择向量数据库[heading2]AnythingLLM安装和配置[content]安装地址:https://useanything.com/download当我们安装完成之后,会进入到其配置页面,这里面主要分为三步1.第一步:选择大模型1.第二步:选择文本嵌入模型1.第三步:选择向量数据库[heading2]构建本地知识库[content]AnythingLLM中有一个Workspace的概念,我们可以创建自己独有的Workspace跟其他的项目数据进行隔离。1.首先创建一个工作空间1.上传文档并且在工作空间中进行文本嵌入1.选择对话模式AnythingLLM提供了两种对话模式:Chat模式:大模型会根据自己的训练数据和我们上传的文档数据综合给出答案Query模式:大模型仅仅会依靠文档中的数据给出答案1.测试对话当上述配置完成之后,我们就可以跟大模型进行对话了[heading1]六、写在最后[content]我非常推崇的一句话送给大家:看十遍不如实操一遍,实操十遍不如分享一遍如果你也对AI Agent技术感兴趣,可以联系我或者加我的免费知识星球(备注AGI知识库)

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

前言在把AI大模型能力接入微信后,发现很多朋友想要落地在类似客服的应用场景。但目前大模型存在幻觉,一不留神就胡乱回答,这在严肃的商用场景下是不可接受的。当我想要解决此问题时,发现虽然资料很多,但是多数太偏“技术向”,对于很多和我一样的非技术从业者来说,犹如天书一般。有落地需求的朋友们,即使完成了通路搭建,也无法真正的应用。落地场景,幻觉是不得不直面的问题。而非技术从业者的小白们,很难找到一个“说人话”的文章,让他们完全了解并应用。而我对此比较感兴趣,同时作为产品经理,有一些用户思维和技术基础。因此我斗胆在整理、学习了多位前辈的成果后,写一篇讲给“小白”们的教程。⚡以下内容,如有错漏,欢迎留言补充、批评、指正。一、对话示例如果我直接讲理论部分,我相信小白强迫自己看了前200字就会关掉窗口。因此,我们先将这个过程具象化。以下是一个问答机器人的界面。这是一个示例,你可以把右侧的对话当做是微信的对话框,这些对话交互是可以在任何一个受支持的窗口下实现的。上方页面左侧画红框的地方,是这个“问答机器人”的配置,右侧是与“机器人”的一轮对话。左侧有三处配置:AI模型提示词知识库。模型、提示词、知识库三者可以想象成:

张梦飞 :AI商用级问答场景,怎么让AI+知识库回答的更准确?一篇专门为小白讲透RAG而作的教程(上篇)

以下是一个问答机器人的界面。这是一个示例,你可以把右侧的对话当做是微信的对话框,这些对话交互是可以在任何一个受支持的窗口下实现的。上方页面左侧画红框的地方,是这个“问答机器人”的配置,右侧是与“机器人”的一轮对话。问答机器人的配置这里有三处配置:AI模型提示词知识库。模型、提示词、知识库三者可以想象成:大语言模型:是一个学习过无数本书、拥有无穷智慧的人。他读过无数的书、看过无数的段子,因此对公共知识、学识技能、日常聊天十分擅长。然而,在工作场景下,只会聊天侃大山可不行,你想让他帮你干活。这个时候,就需要“提示词”出场了,提示词:是你告诉这个全知全能的人,他是一个什么样的角色、他要专注于哪些技能,让他能够按照你的想法,变成一个你需要的“员工”。知识库,相当于你给这个“聪明”员工的发放了一本工作手册。即使是看过再多的书、浏览过再多的文字,也不会准确的知道见到老板娘过来吃饭要打三折,张梦飞过去吃饭要打骨折。而知识库,就是把这些内容写在了工作手册上。让这个聪明的员工,见到有人来的时候,就翻一翻手册,然后再做出反应。那我这里的设定:AI模型:这里使用的是阿里千问模型。提示词:这里设定的角色是“美嘉”,是按照美嘉的人设、背景和对话风格做的设定。知识库:这里放的是《爱情公寓》全季的剧情,让“美嘉”拥有了自己过往的“记忆”,知道自己做过什么、好朋友是谁等等。

其他人在问
coze搭建智能体,用上传的文件和知识库的文件做对比,分析差异点。
以下是关于在 Coze 中搭建智能体的相关信息: 1. 证件照相关操作: 展示原图上传结果,基本脸型已换,生成效果与上传照片特征有关。 改背景可利用改图功能,一键改图效果更好,输出数据类型为图片。 豆包节点生成的是 URL 地址,与前者不同,在工作流使用有差异,可参考简单提示词。 介绍证件照工作流相关操作,包括通过提示词改背景颜色,设置输出方式为返回变量;讲解消耗 token 及保存结果相关问题;对按钮、表单添加事件并设置参数,限制上传文件数量;还涉及给表单和图片绑定数据,以及每次操作后刷新界面确保设置生效。 围绕操作讲解与优化展开,介绍 for meet 的设置,如表单事件操作、图片上传数量修改等,提及编程基础知识。还讲述成果图连接、绑定数据方法及注意事项。展示基本功能实现情况,分析换性别等问题成因,指出需在工作流优化提示词,也可尝试用视频模型解决,最后进入问答环节。 2. 多维表格的高速数据分析: 创建智能体,使用单 Agent 对话流模式。 编排对话流,创建新的对话流并关联智能体。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 测试,找到一篇小红书笔记,试运行对话流,在对话窗口输入地址查看数据。 发布,选择多维表格,配置输出类型为文本,输入类型选择字段选择器,完善上架信息,可选择仅自己可用以加快审核。 3. 智能体与微信和微信群的连接: 创建知识库,可选择手动清洗数据提高准确性,包括在线知识库和本地文档。 在线知识库创建时,飞书在线文档中每个问题和答案以分割,可编辑修改和删除。 本地文档中注意拆分内容提高训练数据准确度,如将课程章节按固定方式人工标注和处理。 发布应用,确保在 Bot 商店中能够搜到。
2025-04-18
coze搭建知识库和上传文件做对比分析
以下是关于 Coze 搭建知识库和上传文件的对比分析: 创建文本型知识库: 自动分段与清洗:扣子可对上传的内容进行自动解析,支持复杂布局的文件处理,如识别段落、页眉/页脚/脚注等非重点内容,支持跨页跨栏的段落合并,支持解析表格中的图片和文档中的表格内容(目前仅支持带线框的表格)。操作步骤为在分段设置页面选择自动分段与清洗,然后依次单击下一步、确认,可查看分段效果,不满意可重新分段并使用自定义分段。 自定义:支持自定义分段规则、分段长度及预处理规则。操作时在分段设置页面选择自定义,然后依次设置分段规则和预处理规则,包括选择分段标识符、设置分段最大长度和文本预处理规则,最后单击下一步完成内容分段。 创建表格型知识库: 目前支持 4 种导入类型:本地文档、API、飞书、自定义。 本地文档:选择本地文档从本地文件中导入表格数据,目前支持上传 Excel 和 CSV 格式的文件,文件不得大于 20M,一次最多可上传 10 个文件,且表格内需要有列名和对应的数据。 API:参考特定操作从 API 返回数据中上传表格内容,包括选择 API、单击新增 API、输入 API URL 并选择数据更新频率,然后单击下一步。 飞书:参考特定操作从飞书表格中导入内容,包括选择飞书、在新增知识库页面单击授权并选择要导入数据的飞书账号、单击安装扣子应用(仅首次导入需授权和安装),然后选择要导入的表格并单击下一步。目前仅支持导入“我的空间”下的飞书文档,云文档的创建者必须是自己,暂不支持导入知识库和共享空间下的云文档。 上传文本内容: 在线数据:扣子支持自动抓取指定 URL 的内容,也支持手动采集指定页面上的内容,上传到数据库。 自动采集方式:适用于内容量大、需批量快速导入的场景。操作步骤为在文本格式页签下选择在线数据,然后依次单击下一步、自动采集、新增 URL,输入网站地址、选择是否定期同步及周期,最后单击确认,上传完成后单击下一步,系统会自动分片。 手动采集:适用于精准采集网页指定内容的场景。操作步骤为安装扩展程序,在文本格式页签下选择在线数据,然后依次单击下一步、手动采集、授予权限,输入采集内容的网址,标注提取内容,查看数据确认无误后完成并采集。
2025-04-18
知识库怎么构建
构建知识库的方法主要有以下几种: 1. 使用 Flowith 构建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,为其起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 等待 Flowith 对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 2. 使用 Dify 构建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:根据需求选择高质量模式、经济模式或 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 3. 本地部署大模型并搭建个人知识库(涉及 RAG 技术): 了解 RAG 技术:大模型训练数据有截止日期,RAG 可通过检索外部数据并在生成步骤中传递给 LLM 来解决依赖新数据的问题。 RAG 应用的 5 个过程: 文档加载:从多种来源加载文档,如 PDF、SQL 等。 文本分割:把文档切分为指定大小的块。 存储:包括将文档块嵌入转换成向量形式,并将向量数据存储到向量数据库。 检索:通过检索算法找到与输入问题相似的嵌入片。 输出:将问题和检索出的嵌入片提交给 LLM 生成答案。 文本加载器:将用户提供的文本加载到内存中以便后续处理。
2025-04-15
如何搭建知识库
搭建知识库的方法如下: 使用 flowith 搭建: 选择“Manage Your Knowledge Base”,进入知识库管理页面。 点击左上角的加号添加新的知识库,给知识库起一个便于分辨的名字。 点击添加文件,建议使用 Markdown 格式的文件。 Flowith 会对文件进行抽取等处理,处理完毕后可在知识库管理页面测试检索。 使用 Dify 搭建: 准备数据:收集文本数据,进行清洗、分段等预处理。 创建数据集:在 Dify 中创建新数据集,上传准备好的文档并编写描述。 配置索引方式:提供三种索引方式,根据需求选择,如高质量模式、经济模式和 Q&A 分段模式。 集成至应用:将数据集集成到对话型应用中,配置数据集的使用方式。 持续优化:收集用户反馈,更新知识库内容和优化索引方式。 使用 Coze 智能体搭建: 手动清洗数据: 在线知识库:点击创建知识库,创建 FAQ 知识库,选择飞书文档,输入区分问题和答案,可编辑修改和删除,添加 Bot 并在调试区测试效果。 本地文档:注意拆分内容,提高训练数据准确度,按章节进行人工标注和处理,然后创建自定义清洗数据。 发布应用:点击发布,确保在 Bot 商店中能搜到。
2025-04-14
如何搭建自己的知识库
以下是搭建自己知识库的方法: 1. 选择“Manage Your Knowledge Base”,进入知识库管理页面。 2. 在页面左上角点击加号,添加新的知识库,并为其起一个易于分辨的名字。 3. 点击添加文件,建议使用 Markdown 格式的文件。 4. 等待 Flowith 对文件进行抽取等处理。 5. 处理完毕后,可在知识库管理页面测试检索,输入关键词过滤相关内容。 此外,搭建本地知识库还需了解 RAG 技术: 1. RAG 是一种当需要依靠不包含在大模型训练集中的数据时所采用的主要方法,即先检索外部数据,然后在生成步骤中将这些数据传递给 LLM。 2. 一个 RAG 的应用包括文档加载、文本分割、存储、检索和输出 5 个过程。 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 文本分割:把 Documents 切分为指定大小的块。 存储:将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 检索:通过某种检索算法找到与输入问题相似的嵌入片。 输出:把问题以及检索出来的嵌入片一起提交给 LLM,生成更合理的答案。 对于基于 GPT API 搭建定制化知识库,涉及给 GPT 输入定制化的知识。由于 GPT3.5 一次交互支持的 Token 有限,OpenAI 提供了 embedding API 解决方案。Embeddings 是一个浮点数字的向量,两个向量之间的距离衡量它们的关联性,小距离表示高关联度。在 OpenAI 词嵌入中,靠近向量的词语在语义上相似。文档上有创建 embeddings 的示例。
2025-04-14
我想做一个,基于我个人知识库的chatbot,以供我随时搜索和提问,且优先搜索知识库内的内容而非联网搜索,你有什么建议吗?
以下是为您提供的关于创建基于个人知识库的 chatbot 的建议: 1. 选择合适的平台和工具:例如可以考虑使用飞书智能伙伴创建平台(Aily)或扣子(https://www.coze.cn/home)等。 2. 数据分段储存:由于大模型的上下文长度有限制,需要将上传的资料根据特定符号或字符长度进行分段,如将 8000 字文档按每 800 字分成一个片段储存。 3. 增强检索:当用户输入问题,大模型会根据相似度检索出若干最相关的数据片段,再据此生成答案,这一技术称为 RAG(检索增强生成)。 4. 配置知识库: 在 Bot 内使用知识库: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在 Bots 页面,选择指定 Bot 并进入 Bot 详情页。 在 Bot 编排页面的知识库区域,单击加号图标,添加指定的知识库。 (可选)添加知识库后,可以在自动调用下拉界面内,调整知识库的配置项,如最大召回数量、最小匹配度、调用方式等。 在工作流内使用 Knowledge 节点: 登录相关平台。 在左侧导航栏的工作区区域,选择进入指定团队。 在页面顶部进入工作流页面,并打开指定的工作流。 在左侧基础节点列表内,选择添加 Knowledge 节点。 5. 注意使用限制:单用户最多创建 1000 个知识库,文本类型知识库下最多支持添加 100 个文档,单用户每月最多新增 2GB 数据,累计上限是 10GB。 此外,知识库可以解决大模型幻觉、专业领域知识不足的问题,提升大模型回复的准确率。您可以将知识库直接与 Bot 进行关联用于响应用户回复,也可以在工作流中添加知识库节点,成为工作流中的一环。
2025-04-14
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
请为我生成一些提示词以用于将视频中的对话转化为文本形式
以下是为您生成的一些用于将视频中的对话转化为文本形式的提示词: 1. 角色:专业视频转文本工作者 2. 版本:1.0 3. 描述:能够准确、清晰地将视频中的对话转换为文本 4. 目标:完整、无误地将视频中的对话转化为易于理解的文本 5. 限制:不遗漏重要信息,不添加主观内容 6. 技能:熟练掌握语音识别和文字转换技巧 7. 工作流程:先仔细聆听视频对话,然后逐句转换为文字,注意标点和语法的正确使用 8. 初始化:您好,我准备开始将视频对话转换为文本 事件驱动句式: 1. As the video plays... 2. When the speakers start talking... 3. At the beginning of the video... 空间锁定技巧: 1. on the left side of the screen... 2. behind the main character... 3. from the top corner of the frame... 动态呼应原则: 1. swaying with the background music... 2. reacting to the other characters' actions... 3. matching the tone of the video...
2025-04-11
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
想创建一个对话问答形式的课程智能体
以下是创建一个对话问答形式的课程智能体的相关内容: 一、创建智能体 1. 知识库 手动清洗数据:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据,自动清洗数据可能会出现数据不准的情况。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入后可编辑修改和删除,添加 Bot 后可在调试区测试效果。 本地文档:本地 word 文件,注意拆分内容以提高训练数据准确度。画小二 80 节课程分为 11 个章节,不能一股脑全部放进去训练,应先将 11 章的大章节名称内容放进来,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到,否则获取不到 API。 二、智谱 BigModel 共学营活动分享 活动内容包括使用 BigModel 搭建智能体并接入微信机器人,过程为将调试好的智能体机器人拉入微信群,由老师提问,机器人回答,挑选出色回答整理成问卷,群成员投票,根据得票数确定奖项。一等奖得主分享了对活动的理解和实践,包括从题出发的分析,认为考验机器人对问题的理解和回答准确性,真实对话场景一般为完整句子回复,根据回答真实性和有趣程度评分,可使用弱智吧问题测试提示词生成效果。 三、名字写对联教学——优秀创作者奖,百宝箱智能体 1. 智能体类型的选择:建议选择工作流的对话模式,支持工作流编排和携带历史对话记录,创建后切换为对话模式,注意在调整工作流节点前切换,否则会清空重置。 2. 确认分支情况:根据需求分析有两个特定分支(根据名字和祝福写对联、根据幸运数字写对联)和一个默认分支。 3. 用户意图识别:通过理解用户意图走不同分支,注意将意图介绍写清楚准确。 4. 幸运数字分支:用代码分支获取用户输入数字,匹配知识库并做赏析,代码中有容错机制。 5. 名字写祝福:根据用户输入的名字和祝福信息,提示词生成对应对联并输出,主要是提示词调试。 6. 通用兜底回复:在用户不符合前两个意图时进行友好回复,匹配知识库,结合匹配结果、历史记录和当前输入输出符合对话内容的回复。 7. 知识库:使用大模型生成 100 对对联,好看、经典、有意义。
2025-04-09
有没有可以实现多段对话的AI,用于中医问诊模型
以下是一些可以用于中医问诊模型且能实现多段对话的 AI 相关信息: Polaris:医疗护理保健模型,能和患者进行多轮语音对话,媲美人类护士。详细信息:http://xiaohu.ai/p/5407 ,https://x.com/imxiaohu/status/1774644903546618298?s=20 在 LLM 开源中文大语言模型及数据集集合中,有以下针对医疗领域的模型: DoctorGLM:地址:https://github.com/xionghonglin/DoctorGLM 。基于 ChatGLM6B 的中文问诊模型,通过中文医疗对话数据集进行微调,实现了包括 lora、ptuningv2 等微调及部署。 BenTsao:地址:https://github.com/SCIRHI/HuatuoLlamaMedChinese 。开源了经过中文医学指令精调/指令微调的 LLaMA7B 模型。通过医学知识图谱和 GPT3.5 API 构建了中文医学指令数据集,并在此基础上对 LLaMA 进行了指令微调,提高了 LLaMA 在医疗领域的问答效果。 BianQue:地址:https://github.com/scutcyr/BianQue 。一个经过指令与多轮问询对话联合微调的医疗对话大模型,基于 ClueAI/ChatYuanlargev2 作为底座,使用中文医疗问答指令与多轮问询对话混合数据集进行微调。 HuatuoGPT:地址:https://github.com/FreedomIntelligence/HuatuoGPT 。开源了经过中文医学指令精调/指令微调的一个 GPTlike 模型。
2025-04-08
excel表格导出的用户的对话记录,来进行自定义标签并打标,有哪些好用的现成方案或者工具
目前在 Excel 表格导出的用户对话记录进行自定义标签并打标方面,以下是一些常见且好用的工具和方案: 1. Microsoft Excel 本身:可以利用其数据筛选、排序和函数功能来辅助标签和打标。 2. Google Sheets:具有类似 Excel 的功能,且在线协作方便。 3. R 语言:通过编程实现复杂的数据分析和标签处理。 4. Python 及相关库,如 Pandas:能够灵活处理数据和进行标签操作。 但具体选择哪种方案或工具,取决于您的具体需求、技术水平和使用习惯。
2025-04-07
如何本地部署大模型,如何选择是否使用云服务商
以下是关于本地部署大模型以及选择是否使用云服务商的相关内容: 本地部署大模型的主要步骤: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 以 SDXL 为例的本地部署步骤: 1. SDXL 的大模型分为两个部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 以 LLM 大语言模型为例的本地部署步骤: 1. 下载并安装 Ollama,点击进入根据电脑系统下载 Ollama:https://ollama.com/download ,下载完成后,双击打开,点击“Install”,安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 总的来说,部署大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-14
AI服务器配置
以下是关于 AI 服务器配置的相关内容: 对于 Coze AI 机器人对接微信的服务器配置: 1. 如果按照上一篇教程操作,此次配置只需修改容器编排模板。最新的容器编排模板如下,同时提供无描述性的参考配置方便新手直接参考使用。 2. 若之前没有容器编排模板,新建一个即可,新建和修改逻辑类似。 3. 更新后的编排模板,若之前创建过相似机器人容器编排服务,建议先删除以防冲突,删除步骤如下。 4. 基于新的编排模板创建新的容器编排,然后启动服务。 5. 服务启动成功后,进入 COW 服务扫码绑定微信机器人,具体步骤参考上一篇入门教程。 对于视频相关的 AI 服务器配置: 1. 购买服务器:直接点击去购买:https://buy.cloud.tencent.com/lighthouse?blueprintType=APP_OS&blueprintOfficialId=lhbpr8j2ftq0&regionId=8&zone=apbeijing3&bundleId=bundle_rs_mc_med1_02&loginSet=AUTO&from=lhconsole ,并根据以下配置购买。 2. 购买并付款完成后,回到服务器“控制台”。 3. 点击服务器卡片空白处添加防火墙,添加 8887、8080 端口。 4. 点击右上角“登录”按钮,扫码验证后在命令行窗口中操作,注意复制粘贴代码的方式和命令执行完毕的标志。 5. 在命令行中依次输入相关命令。 6. 保存并打开外网面板地址,输入账号和密码。
2025-04-10
如何利用AIGC技术给企业提供咨询服务
利用 AIGC 技术为企业提供咨询服务可以从以下几个方面入手: 1. 招募具备实战经验的 AI 讲师与咨询专家:工信部大数据产业人才基地依托丰富的企业渠道资源,计划为传统行业客户提供 AI 技术培训、场景化咨询与解决方案落地服务,并面向社区招募相关人才。 2. 开展公开课:针对 B 端渠道持续展开公益科普,形式免费,部分渠道有一定经费,内容为企业端的 AI 应用场景案例和 AI 通识类的科普分享,目的是建立与企业渠道之间的信任,构建收费培训/咨询的转化通道。 3. 组织线下培训:通过培训转化或直接招生,开设两天一夜、三天两夜的培训班,一般 50 人以上开班,建议 100 人。 4. 提供咨询陪跑服务:包括 AI 营销能力搭建,企业客服机器人搭建、企业端内容分析智能体搭建、企业运营数据大盘搭建、无人直播/数字人直播间搭建等。 此外,一些成功的案例和产品也可供参考: 1. 为阿里妈妈、阿里国际、搜狗、途虎、太平洋保险、哔哩哔哩、滴滴、百度金融、浦发银行、花旗银行、振华重工、中国电信、中国移动、中兴通讯、SMG 等企业提供设计咨询与训练。 2. Runway 上线文字生成语音功能,英文效果好,中文存在外国人口音问题,功能可选择语音模型多。 3. Delphi 可以将个人的所有视频、播客、PDF、博客文章等信息训练为一个分身,并能用分身对外提供咨询服务,支持文字、语音甚至视频沟通,还支持对话内容的数据分析以优化交流。 4. Osum 是一款人工智能市场研究工具,可通过按下按钮获取产品或企业的详细研究、SWOT 分析、买家人物画像、增长机会等信息,还提供销售前景分析器,并能在几秒钟内为任何商务或产品提供完整 SWOT 分析。
2025-04-01
mcp服务是什么
MCP(模型上下文协议)是一项创新标准,由 Anthropic 于 2024 年 11 月推出并开源。它是为 AI 模型统一连接数据与工具的标准接口,旨在让大语言模型能够无缝连接至第三方的数据源。 MCP 的好处包括: 简化开发:一次整合,多次复用,不再重复开发。 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 实时互动:长连接保证数据实时更新。 安全可靠:内置标准化安全和权限控制。 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 MCP 与传统 API 的关键区别在于: 单一协议:MCP 像一个统一接口,只要一次整合,就能连接多个服务。 动态发现:AI 模型能自动识别并使用可用的工具,不用提前写死每个接口。 双向通信:MCP 支持类似 WebSockets 的实时双向通信,模型不仅能查询数据,还能主动触发操作。 传统 API 更适合的场景包括: 需要细粒度控制、功能严格限制。 更偏好紧耦合以提升性能。 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确 MCP 服务器提供的功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 通过 MCP,我们可以让 AI 使用各种强大工具,比如查询实时天气、联网搜索最新信息、调用私人数据库等。
2025-03-27
我公司想部署一个deepseek-R1,用云服务器请问大概需要多少钱?
部署 DeepSeekR1 模型使用云服务器的价格因云计算厂商而异: 华为昇腾社区:部署 DeepSeekR1 模型用 BF16 权重进行推理至少需要 4 台 Atlas 800I A2(864G)服务器,用 W8A8 量化权重进行推理则至少需要 2 台 Atlas 800I A2。服务器调用 Docker 下载部署权重资源,非 API 调用模式。 阿里云(人工智能平台 PAI):以 R1 为例,所需计算资源价格 316.25/小时。模型部署成在线服务,在人工智能平台 PAI 下的模型部署下的模型在线服务 EAS。 阿里云(阿里云百炼):免费额度:10000000/10000000,通过 API 调用。 腾讯云(自建服务器):多机分布式部署,节点数量:2 个,单节点配置:HCCPNV6 机型,可在线体验(需开通 T1 平台服务)。 腾讯云(调用 API):API 调用 DeepSeek 系列模型限时免费。即日起至北京时间 2025 年 2 月 25 日 23:59:59,所有腾讯云用户均可享受 DeepSeekV3、DeepSeekR1 模型限时免费服务,单账号限制接口并发上限为 5。在此之后,模型价格将恢复至原价。 京东云:“deepseekr1:1.5b、“deepseekr1:7b”、“deepseekr1:32b”,1.89/小时起;服务器部署的方式。 gitee ai:R1 价格 0.1 元/次,基于沐曦曦云 GPU 及曦源一号国产替代算力集群,有在线体验。 需要注意的是,价格可能会有所变动,具体以各云计算厂商的最新公布为准。
2025-03-25
可以为我找到在线更换图片颜色服务的AI网站吗
以下是一些可以在线更换图片颜色服务的 AI 网站相关信息: 启用 MutiDiffusion 插件,不开放大倍数,仅使用分块渲染的功能,能在显存不够的情况下将图片放大到足够的倍数。 在最近新上线的 controlnet 模型中,Recolor 新模型可将黑白图片重新上色。 对于人物照片还原,可选择 realisian 的写实大模型,通过提示词描述颜色和对应内容,如黑色的头发、黄色的皮肤、深蓝色的衣服、浅蓝色的背景等。ControlNet 选择 Recolor,预处理器选择“recolor_luminance”效果较好。 您可以通过以下网址获取更详细内容:https://mp.weixin.qq.com/s/hlnSTpGMozJ_hfQuABgLw
2025-03-25
我要根据PPT开发一个网页,请详细提供操作步骤和选择哪一个AI工具更合适。
以下是根据 PPT 开发网页的详细操作步骤以及适用的 AI 工具: 一、生成 PDF 1. 将您的文件转换为 PDF 格式,其他文件格式也可行,但 PDF 效果更佳。 2. 若希望在文章中加入图片,需将图片转换为 Markdown 格式。 网络图片:直接复制图片的 URL,右键图片选择复制 URL,然后用 Markdown 格式写入文档。 自己的图片:使用图床服务(如 https://sm.ms/)托管图片,生成公链。 3. 插入视频:先将本地视频上传到公网(如 B 站),在视频页面寻找“分享”按钮,点击“嵌入”或“嵌入代码”选项获取 URL,用 Markdown 格式写入。 二、适用的 AI 工具 1. 爱设计 网址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 2. MindShow 网址:https://www.mindshow.fun//home 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 3. Process ON 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点: 手动复制(相对耗时) 导入方式:复制最终大纲内容到本地 txt 文件,将后缀改为.md(若看不见后缀可自行搜索开启),打开 Xmind 软件导入 md 文件,在 Process ON 导入 Xmind 文件。 输入主题自动生成大纲和要求:新增思维导图,输入主题点击 AI 帮我创作。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版再点击下载。若喜欢使用且无会员,可在某宝买一天会员。
2025-04-13
如何使用MCP?提供教程
以下是关于如何使用 MCP 的详细教程: 前置准备工作: 任选一个客户端软件进行配置,大致分为四步: 1. 填入大模型 API 密钥。 2. 找到 MCP 配置界面。 3. 填入 MCP Server 对应的 json 脚本。 4. 使用 MCP。 不同客户端软件的配置方法: 1. Cherry Studio(推荐): 版本:2025 年 4 月发布的 1.1.17。 配置大模型 API:填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP:例如,图中填写的就是 Playwright 的 MCP Server 和百度地图的 MCP Server。 使用 MCP。 2. Cursor(推荐): 配置大模型 API:如果 Cursor Pro 在免费试用期,这一步可以不做;如果不在免费试用期,最好的办法是氪金,也可以试试填入之前准备好的 AiHubMix 的 API 密钥。 配置 MCP Server:填入 MCP Server 的 json,保存。 回到 Cursor 的 MCP 配置页面,等待几秒钟,多点几次蓝色框里的按钮,直到绿灯亮起,并显示出所有 MCP 工具。 使用 MCP:Ctrl+Shift+L 新建对话,将模式设置为 Agent。 3. Claude Desktop: 配置 MCP Server:用文本编辑器(VSCode、Sublime Text 等)打开 claude_desktop_config.json 文件,填入 MCP Server 对应的 json 文件,保存。 重启 Claude Desktop。 查看 MCP Server 连接状态。 使用 MCP。 MCP 的好处: 1. 简化开发:一次整合,多次复用,不再重复开发。 2. 灵活性强:轻松切换 AI 模型或工具,无需复杂的重新配置。 3. 实时互动:长连接保证数据实时更新。 4. 安全可靠:内置标准化安全和权限控制。 5. 扩展性强:AI 系统扩展时,只需连接新的 MCP 服务器。 传统 API 更适合的场景: 1. 需要细粒度控制、功能严格限制。 2. 更偏好紧耦合以提升性能。 3. 希望最大化交互的可预测性。 快速集成 MCP 的步骤: 1. 定义能力:明确您的 MCP 服务器提供哪些功能。 2. 实现 MCP 层:按照协议标准进行开发。 3. 选择通信方式:本地连接(标准输入输出)或远程连接(如 WebSockets)。 4. 创建资源/工具:开发或连接您的数据源和服务。 5. 建立客户端连接:与 MCP 服务器建立安全稳定的连接。 MCP 与 API 的比较: MCP 与传统 API 之间的主要区别在于: 1. 单一协议:MCP 充当标准化的“连接器”,因此集成一个 MCP 意味着可能访问多个工具和服务,而不仅仅是一个。 2. 动态发现:MCP 允许 AI 模型动态发现可用工具并与之交互,而无需对每个集成进行硬编码知识。 3. 双向通信:MCP 支持持久的实时双向通信 类似于 WebSockets。AI 模型既可以检索信息,也可以动态触发操作。 以 Cursor 驱动 blender 自动化建模的 MCP 项目为例: 首先,在 github 上找到项目说明(https://github.com/ahujasid/blendermcp)。以 Mac 安装为例,首先要安装一个 uv 包(如果不懂,就直接新建一个项目文件夹后,将相关需求丢给 AI)。显示 uv 安装完毕后(初次使用可能需要安装一系列的环境,只要一路让 AI 安装就可以了),还是找到点击界面右上角的小齿轮图标。找到 MCP 模块 Add new global MCP server,将相关内容粘贴进去。退回 MCP 界面时,就会发现已经连接上了这个 blender 服务器,并且增加了很多具体功能。
2025-04-13
请给我提供一个 AI辅助我进行知识管理的方案
以下是一个 AI 辅助知识管理的方案: 1. 利用提示词规划 PARA 分类模式:PARA 代表项目(Projects)、领域(Areas)、资源(Resources)和档案(Archives)。AI 可分析您的工作模式和内容类型,自动生成提示词,助您将信息和知识分类到相应部分,简化分类过程,加快组织和检索信息。核心是理解以行动为驱动的笔记逻辑。 2. 借助提示词设计笔记标签系统:有效的标签系统对知识管理很关键,AI 能分析笔记内容和使用习惯,推荐合适的标签和结构,提高检索效率。 3. 让知识助手 Bot 渐进式积累领域知识:随着在特定领域的深入,需要系统积累和更新知识。知识助手 Bot 可根据学习进度和兴趣点,定期推送相关文章、论文和资源,实现渐进式学习,扩展知识边界并确保知识更新。例如基于 dify.ai 将数百个思维模型整合成知识库,根据不同对话和条件判断为用户选择适用的思维模型分析工具,封装成智能分析的 Bot。 4. 基于已积累知识的 RAG 方法进行深度研究:RAG 是结合检索和生成的 AI 模型,应用于知识管理,能在深度研究时自动检索相关知识点和资料,辅助构建更全面深入的分析。 5. 打造个人知识导师,随时对话辅助梳理线索:创建个人知识管理员机器人,随时与之对话,询问特定知识点或寻求解决问题思路。它能基于知识库自学习,了解您的知识结构和需求,成为不可或缺的知识伙伴。 6. 构建最了解您的智能体作为 AI 写作助手:涵盖构思、草稿生成、内容迭代、润色与优化等全流程。构思阶段利用智能体生成创意点、主题或大纲;草稿生成基于构思让智能体生成文本草稿;内容迭代通过 promptchain 工具设计迭代提示修改完善草稿;润色与优化对最终文本进行语言风格和语调调整。通过实践和反馈优化 prompt 设计,使写作助手贴合个人风格和需求。 此外,生成式人工智能在知识管理应用程序方面也有新兴应用,例如用作管理组织内基于文本(或可能基于图像或视频)知识的手段。一些研究表明,针对组织内特定知识体系微调模型培训,可有效管理组织知识。一些公司正与领先的商业提供商合作探索基于生成式人工智能的知识管理理念,但用户可能需要培训或帮助来创建有效提示,且知识输出应用前可能仍需编辑或审查。
2025-04-11
用deepseek写一份课题申报书,请提供相关指令
以下是一些用 DeepSeek 写课题申报书的相关指令和要点: 1. 思维链引导: 分步标记法:请逐步思考,如问题分析→方案设计→风险评估。 苏格拉底式追问:在得出最终结论前,先列举三个可能存在的认知偏差。 2. 知识库调用: 领域限定指令:基于特定的标准或文献,如 2023 版中国药典,说明相关内容。 文献引用模式:以特定的论文为参考,解释相关突破。 3. 多模态输出: 模糊指令优化:对于宽泛需求添加维度约束,将主观表述量化标准。 迭代优化法:包括首轮生成获取基础内容、特征强化、风格调整和最终校验等步骤。 4. 在课题申报书的内容方面: 关于提示词编写及 AI 应用的探讨:介绍用于不确定世界中理性决策的提示词编写方法,包括收集信息、重新定义问题、运用 Mini Max Regret 方法等步骤。注意示例的价值,自用与他用提示词在稳定性、经济性、可维护性等方面的区别。 AI 应用于软件开发:未来借助 AI 模型的 API 和编写提示词,可快速实现软件开发。 关于写作与模型:用 DeepSeek 写小说要能引起共鸣和考虑人类共性,文字要感动人。注意模型特点与推荐,如 Cloud 3.5 模型多样性差,DeepSeek R1 有缺陷但也不错。 以上内容仅供参考,您可以根据具体的课题需求进一步调整和完善。
2025-04-11
给我提供一份清华大学104页的deepseek从入门到精通的手册的链接
以下是为您找到的与清华大学 DeepSeek 相关的一些资料链接: https://pan.quark.cn/s/56e2713e95f4 https://docs.qq.com/doc/DSG9SWFpjVXI3aHZ1 清华大学 104 页的 DeepSeek 从入门到精通的手册:https://waytoagi.feishu.cn/record/FjWorH (2 月 11 日更新附录)
2025-04-11
给我提供一份清华大学104页的deepseek从入门到精通的手册
以下是为您整合的相关信息: 清华大学出品了《DeepSeek:从入门到精通》的指南,该指南详细阐述了 DeepSeek 的功能,如智能对话、文本生成、代码生成、自然语言理解等,并探讨了其使用方法,包括推理模型与通用模型的区别、提示语设计策略等,旨在帮助用户更好地掌握这一 AI 工具的使用,提升工作效率和创新能力。您可以通过以下链接获取:https://waytoagi.feishu.cn/record/QAURr4CNGeJ5GIcvU0nc9X3dndg 。 此外,还有一些相关的更新和资料,如 2 月 11 日更新附录的清华大学 104 页 Deepseek 从入门到精通、1 月 21 日更新热门 AI deepseek 推荐及案例征稿通知、1 月 14 日更新爱好者交流 g 群和微信群、12 月 30 日更新案例 24,25,26 等。 同时还有关于 AI 赋能教学的课程实施流程及案例亮点等内容,如利用 AI 生成开放性问题引发深度思考、通过多维数据分析支持全面客观的判断、通过辩论提升批判性思维和表达能力等。
2025-04-11