直达「 通往AGI之路 」飞书知识库 →
首页/问答列表/问答详情

能否给我一些rag实操案例

回答

好的,以下是根据你的需求为你生成的文章:

RAG 实操案例

RAG(Retrieval Augmented Generation)是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。以下是一些 RAG 实操案例:

  1. 餐饮生活助手 餐饮生活助手是一个基于结构化数据 RAG 的方法的应用,它的目的是根据用户的需求,从一个大规模的餐饮数据集中检索出最合适的餐厅,并提供相关的信息和服务。

为了实现餐饮生活助手 RAG 的 Langchain 代码实战,需要完成以下几个步骤:

  • 定义餐饮数据源:将餐饮数据集转化为 Langchain 可以识别和操作的数据源,例如数据库、文件、API 等,并注册到 Langchain 中,并提供统一的接口和方法,让 LLM 的代理可以方便地访问和查询数据源。
  • 定义 LLM 的代理:根据用户的问题,提取出核心的信息和条件,并形成标准的查询语句,然后用这个查询语句去检索餐饮数据源,得到相关的数据记录,再根据这些数据记录,生成最合适的答案,输出给用户。
  • 运行 LLM 的代理:将 LLM 的代理部署到不同的平台和渠道,例如 Web、微信、Telegram 等,并提供统一的接口和方法,让用户可以方便地与 LLM 的代理进行交互。
  1. 大模型 RAG 问答行业最佳案例及微调、推理双阶段实现模式 基于模块化(Modular)RAG 自定义 RAG Flow,该案例展示了如何使用 RAG 技术来实现问答系统。具体而言,该系统使用了一个预训练的语言模型(如 GPT-3)和一个知识图谱来进行问答。

在微调阶段,系统会根据用户的问题和知识图谱中的信息,对语言模型进行微调,以使其更好地适应特定的领域和任务。在推理阶段,系统会使用微调后的语言模型和知识图谱来生成回答。在这个过程中,系统会根据用户的问题和知识图谱中的信息,生成一个查询,然后使用语言模型来生成回答。

总的来说,该案例展示了如何使用 RAG 技术来实现问答系统,以及如何通过微调和推理来提高问答的准确性和效率。

  1. 通过增强 PDF 结构识别,革新检索增强生成技术(RAG) 该案例主要讨论文档解析和文本切分质量是否会影响 RAG 系统的效果。具体而言,该案例探讨了两种类型的方法,即基于规则(Rule-based)的方法和基于深度学习(Deep learning-based)的方法,并通过实际案例对它们的效果进行实证评估。

基于规则的方法主要依赖于人工编写的规则和模式来提取文本块和生成嵌入向量。这种方法的优点是简单、快速,但是对于复杂的文档结构和多变的文本内容可能会表现不佳。

基于深度学习的方法则利用了深度学习模型(如卷积神经网络(CNN)和循环神经网络(RNN))来自动学习文本块的特征和嵌入向量。这种方法的优点是可以更好地处理复杂的文档结构和多变的文本内容,但是需要大量的训练数据和计算资源。

通过对实际案例的评估,该案例发现基于深度学习的方法在文档解析和文本切分质量方面表现更好,但是需要更多的计算资源和训练数据。因此,在选择方法时,需要根据具体的应用场景和需求来进行权衡。

以上是一些 RAG 实操案例,希望对你有所帮助。

内容由 AI 大模型生成,请仔细甄别(powered by aily)

参考资料

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片

开发:LangChain应用开发指南-不用向量也可以RAG

为了更好地展示结构化数据来RAG的方法的实际效果,我们以餐饮生活助手为例,给出用户提问和回复的示例,以及餐饮生活助手RAG的代码实战。餐饮生活助手是一个基于结构化数据RAG的方法的应用,它的目的是根据用户的需求,从一个大规模的餐饮数据集中检索出最合适的餐厅,并提供相关的信息和服务。餐饮数据集是一个结构化的数据集,它包含了各种各样的餐厅的信息,例如名称、类型、地址、电话、价格、评分、评论等。餐饮生活助手的核心是一个LLM,它能够根据用户的问题,提取出核心的信息和条件,并形成标准的查询语句,然后用这个查询语句去检索餐饮数据集,得到相关的数据记录,再根据这些数据记录,生成最合适的答案,输出给用户。为了实现餐饮生活助手RAG的Langchain代码实战,我们需要完成以下几个步骤:

19. RAG 提示工程系列(一)

虽然目前网络上关于提示工程的相关资料已经多如牛毛,然而RAG(检索增强生成)任务中提示工程如何进行的资料相对而言却较少。不少朋友之前也热烈的讨论过RAG场景下提示词的运用,因此LangGPT社区特别推出RAG任务下的提示词实践经验系列分享。蓝衣剑客(微信lanyijianke1992)是LangGPT社区核心成员,清华大学数据治理研究中心主任助理,曾经参与生成式人工智能行业应用合规标准起草,作为企业技术负责人主导参与了多个大模型实际应用场景下的落地工作,在RAG相关领域有着大量的实践经验。云中江树(微信1796060717)是LangGPT提示词社区的主理人,结构化提示词提出者。蓝衣剑客负责本文主要内容的撰写,江树负责本文内容框架的整体设计和质量把控。《RAG提示工程》为系列文章,今天为大家带来的是《RAG提示工程》的第一篇。在这篇文章中,我们将带领大家了解RAG架构的概念、基本组成、常见痛点以及提示词工程在RAG架构中的应用。随后,我们将逐步指导大家实操一个RAG提示词案例,让大家逐步了解如何编写、调试符合企业生产级标准的提示词。

开发:LangChain应用开发指南-不用向量也可以RAG

定义餐饮数据源。我们需要将餐饮数据集转化为Langchain可以识别和操作的数据源,例如数据库、文件、API等,注册到Langchain中,并提供统一的接口和方法,让LLM的代理可以方便地访问和查询数据源。例如,我们可以将餐饮数据封装为一个API后,并结构化描述该接口的调用方式,并通过以下的代码,将其注册到Langchain中:定义LLM的代理。我们需要定义一个LLM的代理,它可以根据用户的问题,提取出核心的信息和条件,并形成标准的查询语句,然后用这个查询语句去检索餐饮数据源,得到相关的数据记录,再根据这些数据记录,生成最合适的答案,输出给用户。这可以通过Langchain的代理(Agent)来实现。代理管理器可以让开发者通过简单的编程,定义不同的LLM的代理,以及它们的功能和逻辑,并提供统一的接口和方法,让用户可以方便地与LLM的代理进行交互。运行LLM的代理。我们需要运行LLM的代理,让用户可以与之进行交互,将LLM的代理部署到不同的平台和渠道,例如Web、微信、Telegram等,并提供统一的接口和方法,让用户可以方便地与LLM的代理进行交互。餐饮生活助手

通过增强PDF结构识别,革新检索增强生成技术(RAG)

因此,在RAG之前,我们需要将大型文档转换为可检索内容。转换涉及以下几个步骤,如图2所示:图2将PDF文档转换为可检索内容的过程文档解析和文本切分(Document parsing & chunking)。这一步涉及到提取段落、表格和其他内容块,然后将提取的内容分块以进行后续检索。嵌入向量(Embedding)生成。这一步将文本块转换为实值向量并存储在数据库中。由于这些步骤中的每一步都可能导致信息损失,因此复合损失会显著影响RAG响应的效果。本文主要讨论文档解析和文本切分质量是否会影响RAG系统的效果。我们将探讨与此问题相关的挑战、方法和实际案例。讨论将包括对该领域两种类型方法的考察,即基于规则(Rule-based)的方法和基于深度学习(Deep learning-based)的方法,然后通过实际案例对它们的效果进行实证评估。

开发:LangChain应用开发指南-不用向量也可以RAG

本文直接通过Langchain内置的openapi-function call来实现,代码仅作为演示,实际业务情况可能得结合代码内置业务流程来实现。比如通过function call解析用户问题之前还需要判断用户的问题是否与餐厅咨询相关,当解析到的查询维度太少时,需要引导式提问等等。

大模型RAG问答行业最佳案例及微调、推理双阶段实现模式:基于模块化(Modular)RAG自定义RAG Flow

随着RAG的发展,逐步超越被动的检索的方式,出现了自适应的检索(也被称作主动检索),这一方面也是受益于LLM的强大能力。在核心思想上与LLM Agent相似。RAG系统可以主动判断的检索时机,以及判断时候结束整个流程,输出最终的结果。根据判断的依据,又可以分成和Prompt-base和Tuning-basePrompt-base.通过Prompt Engineering的方式让LLM对流程进行控制。一个典型的实现案例是FLARE。它的核心思想是LM应该仅在缺乏所需知识时进行检索,以避免被动检索增强的LM中出现不必要或不适当的检索。FLARE迭代地生成下一个临时句子,并检查是否包含低概率标记。如果是这样,系统将检索相关文档并重新生成句子。Tuning-base.对LLM进行微调使其生成特殊的token,以此来触发检索或生成。这种思想可以追溯到Toolformer中,通过生成特俗的内容,来辅助调用工具。在RAG系统中则是用于控制检索和生成两个步骤。一个典型的案例是Self-RAG。具体而言,

开发:LangChain应用开发指南-大模型的知识外挂RAG

RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

其他人在问
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
ai自媒体变现实操
以下是关于 AI 自媒体变现的实操内容: 对于 0 基础编程小白从 0 到 1 搭建网站: IP 用户旅程图包括网站/产品体验、价值展示、口碑裂变、私域转化、深度服务、用户复购等环节。 赛道反差化打法智能体可让视频火速出圈,比如智能体引流效果、反差打法等。 优秀的自媒体不仅是生产者,更是连接者和转化者。 公众号生成器:https://themetunegenerator.vercel.app/ ,可选择主题、风格(如干货实用型、故事叙事型、轻松幽默型等)生成公众号文案。 电脑要求:Windows 需 Windows 10 或以上,macOS 需 macOS 10.15或更高版本。 开发环境部署:魔法很重要,需安装 NodeJS(https://nodejs.org/en/download)、注册 Github 并下载 Github Desktop(https://desktop.github.com/download/),还可能涉及安装 cnpm 等。 会思考产品创意的你加上会编程的 AI 等于产品 MVP,包括产品规划与设计(确定产品核心功能)、开发实施(使用 Lovable 生成前端代码、导入 cursor 等),让 AI 成为产品设计师梳理细节,所有不会的问题都可问 AI。 自媒体人通过 AIGC 进行流量变现的心路历程: 变现渠道包括直播带货、橱窗带货(抖音需 1000 粉丝、托管橱窗)、商单、介绍粉丝接项目等。 具体的商业变现项目有画小二 AIGC 的 AI 绘图十二生肖、化妆品公司产品设计、产品包装设计、海报设计、游戏背景设计、儿童绘本、AI 漫画、PFP 头像设计、AI 图片+视频(徐悲鸿教育系列 AI 内容)、AIGC+地方文旅、重庆美术馆数字人、长沙美仑美术馆数字人、玛莎拉蒂汽车宣传片、喜马拉雅微短剧等。 广告方面,可通过平台(如抖音星图、B 站花火)接私单,视频广告价格可自定义设置。
2025-04-15
coze工作流的相关教程。要求从入门到实操的最新资料
以下是关于 Coze 工作流从入门到实操的相关资料: 一、一泽 Eze 的教程 Step 1:制定任务的关键方法 1. 设计每个子任务的执行方法 阅读理解小作业:基于英文原文,精心策划 3 道符合 CET4 难度的阅读理解题目。每道题均提供 A、B、C、D 四个选项,正确答案所在选项顺序随机,题目和选项均以英文呈现。题目的参考格式如下: 1) A. B. C. D. 参考答案:针对 3 道题目,生成题目答案。预期格式如下: 1) 答案: 2) 答案: 3) 答案: 英文音频:根据原文,利用 TTS 技术朗读全文 全文对照精读:根据原文,按照以下格式,分段完成全文精读结果的输出: 音标: 中文释义: 英文例句: 例句翻译: 二、大圣的教程 二、Coze 使用教程 1. 工作流AI Agent 的内功心法 节点:工作流是由多个节点构成,节点是组成工作流的基本单元。节点的本质就是一个包含输入和输出的函数。 Coze 平台支持的节点类型: LLM(大语言模型):使用输入参数和提示词生成处理结果。 Code(代码):通过 IDE 编写代码处理输入参数,并返回输出值。 Knowledage(知识库):根据输入参数从关联知识库中召回数据,并返回。 Condition(条件判断):ifelse 逻辑节点,用于设计工作流内的分支流程,根据设置条件运行相应的分支。 Variable(获取变量):从 Bot 中获取变量作为参数在工作流中使用。 Database(数据库):在工作流中使用提前配置在 Bot 数据库中的数据。 2. 创建和使用工作流 这一块官方有现成的教程参考: 海外参考文档:https://www.coze.com/docs/zh_cn/use_workflow.html 国内参考文档:https://www.coze.cn/docs/guides/use_workflow 国内版本还提供了一些示例,学习工作流强烈建议大家跟着实操一遍: 搜索新闻:https://www.coze.cn/docs/guides/workflow_search_news 使用 LLM 处理问题:https://www.coze.cn/docs/guides/workflow_use_llm 生成随机数:https://www.coze.cn/docs/guides/workflow_use_code 搜索并获取第一个链接的内容:https://www.coze.cn/docs/guides/workflow_get_content 识别用户意图:https://www.coze.cn/docs/guides/workflow_user_intent 三、蓝衣剑客的教程 三、Coze 简介 1. 工作流 在典型应用场景中,入门级场景可能仅添加一个节点来构建简单工作流。例如,使用获取新闻插件构建一个获取新闻列表的工作流;使用大模型节点接收并处理用户问题等。 更进阶的场景则通过多个节点组合构建逻辑较复杂的工作流。例如,在搜索并获取指定信息详情的场景中,先通过插件能力进行关键词搜索、然后通过代码节点过滤指定信息、最后通过插件能力获取信息详情;或者在通过条件判断识别用户意图的场景中,通过大模型节点处理用户消息,并将消息分类后通过条件节点分别处理不同类型的消息。这些详细配置教程提供了实际操作指南以帮助理解和应用各种功能。
2025-03-12
AI视频实操
以下是关于 AI 视频实操的相关内容: 如果您想制作 AI 换脸、AI 数字人视频,可按以下步骤进行: 1. 准备内容:先准备一段视频中播放的内容文字,比如产品介绍、课程讲解、游戏攻略等,也可利用 AI 生成这段文字。 2. 制作视频:使用剪映 App 进行简单处理。在电脑端打开剪映 App,点击“开始创作”,选择顶部工具栏中的“文本”,点击默认文本右下角的“+”号,添加文字内容轨道,然后将准备好的文字内容替换默认文本内容,为数字人提供语音播放内容及生成相应口型。 如果您想用 AI 把小说做成视频,通常包括以下步骤: 1. 小说内容分析:使用 AI 工具(如 ChatGPT)分析小说内容,提取关键场景、角色和情节。 2. 生成角色与场景描述:根据小说内容,使用工具(如 Stable Diffusion 或 Midjourney)生成角色和场景的视觉描述。 3. 图像生成:使用 AI 图像生成工具根据描述创建角色和场景的图像。 4. 视频脚本制作:将提取的关键点和生成的图像组合成视频脚本。 5. 音频制作:利用 AI 配音工具(如 Adobe Firefly)将小说文本转换为语音,添加背景音乐和音效。 6. 视频编辑与合成:使用视频编辑软件(如 Clipfly 或 VEED.IO)将图像、音频和文字合成为视频。 7. 后期处理:对生成的视频进行剪辑、添加特效和转场,以提高视频质量。 8. 审阅与调整:观看生成的视频,根据需要进行调整,比如重新编辑某些场景或调整音频。 9. 输出与分享:完成所有编辑后,输出最终视频,并在所需平台上分享。 以下是一些可利用的工具及网址: 1. Stable Diffusion(SD):一种 AI 图像生成模型,可以基于文本描述生成图像。网址: 2. Midjourney(MJ):另一个 AI 图像生成工具,适用于创建小说中的场景和角色图像。网址: 3. Adobe Firefly:Adobe 的 AI 创意工具,可以生成图像和设计模板。网址: 4. Pika AI:文本生成视频的 AI 工具,适合动画制作。网址: 5. Clipfly:一站式 AI 视频生成和剪辑平台。网址: 6. VEED.IO:在线视频编辑工具,具有 AI 视频生成器功能。网址: 7. 极虎漫剪:结合 Stable Diffusion 技术的小说推文视频创作提效工具。网址: 8. 故事 AI 绘图:小说转视频的 AI 工具。网址: 请注意,具体的操作步骤和所需工具可能会根据项目的具体需求和个人偏好有所不同。此外,AI 工具的可用性和功能也可能会随时间而变化,建议直接访问上述提供的工具网址获取最新信息和使用指南。
2025-03-12
智能体实操
以下是关于智能体实操的详细步骤: 创建智能体: 1. 使用单 Agent 对话流模式。 2. 编排对话流: 点击创建新的对话流并与智能体关联。 对于获取笔记详情节点和笔记评论节点,配置 cookie,note_link 使用开始节点的 USER_INPUT。 使用代码节点对两个插件获取的结果进行数据处理,注意代码节点输出的配置格式。 工作流的结束节点选择使用代码的返回数据。 测试: 1. 找到一篇小红书笔记。 2. 试运行对话流,在对话窗口输入地址,看到数据即为成功。 3. 回到智能体的编排页面,以同样方式测试,确保对话流执行成功。 发布: 1. 点击发布,选择多维表格,然后点击配置。 2. 打开配置页面,注意以下几点: 输出类型选择文本。 输入类型选择字段选择器。 完善上架信息,填写表格,选择发布范围时可选择仅自己可用以加快审核。 3. 提交上架信息后,返回配置界面显示已完成,即可完成最终提交。 另外,在搭建智能体时,创建智能体后输入人设等信息,并放上创建的工作流。但注意工作流 2 中【所有视频片段拼接】节点使用的插件 api_token 填的是您的 token,其他人调用会消耗您的费用,所以不能直接发布。您可以将 api_token 作为工作流 2 最开始的输入,让用户自己购买后输入 api_token 再使用,然后发布。
2025-03-04
学完以上课程 熟练上手实操,需要多长时间,请回答需要多长时间而不是回答课程数量
学习不同的 AI 课程并熟练上手实操所需时间因人而异,但大致估计如下: 《雪梅 May 的 AI 学习日记》中制作微信机器人的共学课程,包含 6 个分享,每个分享 2 3 小时,需要有大块完整时间,可能需要数天甚至更长时间才能学完。 入门强化学习,如果没有基础,学习概率论和线性代数相关课程大约需要周末一天时间;吴恩达和李宏毅的课程约 25 小时;《动手学深度学习》前五章约 10 小时;王树森课程的前几节约 5 小时;《动手学强化学习》看到 DQN 部分约十几小时。 微软 AI 初学者入门课程为期 12 周、共 24 课时。 需要注意的是,这只是一个大致的估计,实际所需时间会受到个人学习能力、投入程度等因素的影响。
2025-02-19
开一个AI数据标注公司的落地和具体实操应当如何
开设一家 AI 数据标注公司需要以下落地和具体实操步骤: 1. 市场调研 了解当前 AI 数据标注市场的需求和趋势。 分析竞争对手的优势和不足。 2. 团队组建 招聘具备数据标注技能和经验的人员,包括标注员、质检员等。 对团队进行培训,确保他们熟悉标注规范和流程。 3. 制定标注规范 明确不同类型数据的标注标准和要求。 建立质量控制流程和标准。 4. 技术和工具准备 选择适合的数据标注工具和软件。 搭建稳定的 IT 基础设施,保障数据安全和存储。 5. 寻找客户和项目 与 AI 企业、科研机构等建立联系,争取合作机会。 展示公司的标注能力和优势。 6. 项目管理 合理安排标注任务,确保按时交付。 及时处理项目中的问题和变更。 7. 质量监控 定期对标注结果进行抽检和评估。 依据质量反馈对标注流程和人员进行调整和优化。 8. 合规与法律事务 确保公司的运营符合相关法律法规。 处理好数据隐私和知识产权等问题。 9. 财务管理 制定合理的预算和成本控制策略。 确保公司的资金流稳定。 10. 持续改进 关注行业动态,不断改进标注技术和流程。 提升公司的竞争力和服务质量。
2025-02-17
请找到 AI 用于知识管理的案例
以下是一些 AI 用于知识管理的案例: 1. 在法学领域,当模型培训针对组织内特定的基于文本的知识体系进行微调时,生成式人工智能可以有效地管理组织的知识。例如摩根士丹利正在与 OpenAI 的 GPT3 合作,微调财富管理内容的培训,以便财务顾问既可以搜索公司内部的现有知识,又可以轻松地为客户创建量身定制的内容。 2. 在构建高效的知识管理体系方面,可以通过一系列创新的 AI 应用来实现。比如,AI 可以通过分析工作模式和内容类型,自动生成提示词,帮助将信息和知识分类到 PARA(项目、领域、资源、档案)的相应部分,还能帮设计笔记标签系统。此外,知识助手 Bot 可以根据学习进度和兴趣点,定期推送相关的文章、论文和资源,实现渐进式积累领域知识。 3. 在代码库相关的知识管理中,Cursor 有针对大代码库精准找到相关函数,并利用其信息帮助撰写代码的功能。对于非开发性质的问答,它是一个天然的 RAG 引擎。在问答窗口使用特定操作时,它会先在当前文件夹下搜索并显示相关文档和相关度,最后用这些信息构建提示词完成生成。而且,它能与私有文档自然结合进行问答,并将新生成的见解沉淀成新文档,形成知识闭环,提高知识检索和管理的效率。
2025-04-14
飞书+AI的应用案例
以下是飞书+AI的应用案例: 在企业运营方面,包括日常办公文档材料撰写整理、营销对话机器人、市场分析、销售策略咨询,以及法律文书起草、案例分析、法律条文梳理和人力资源简历筛选、预招聘、员工培训等。 在教育领域,协助评估学生学习情况,为职业规划提供建议,针对学生情况以及兴趣定制化学习内容,论文初稿搭建及论文审核,帮助低收入国家/家庭通过 GPT 获得平等的教育资源。 在游戏/媒体行业,有定制化游戏、动态生成 NPC 互动、自定义剧情、开放式结局,出海文案内容生成、语言翻译及辅助广告投放和运营,数字虚拟人直播,游戏平台代码重构,AI 自动生成副本。 在零售/电商领域,包括舆情、投诉、突发事件监测及分析,品牌营销内容撰写及投放,自动化库存管理,自动生成或完成 SKU 类别选择、数量和价格分配,以及客户购物趋势分析及洞察。 在金融/保险行业,有个人金融理财顾问、贷款信息摘要及初始批复、识别并检测欺诈活动风险、客服中心分析及内容洞。 线下活动方面: 活动宣传:用飞书文档制作活动宣传页面,用 AI 快速制作海报,用 GPTs 写人员分配和主持人台词,活动从策划到开始仅用 2 天时间。 活动报名:使用飞书的多维表格完成报名表及数据统计。 活动过程:大家在线协同,一起编辑文档,演示时共同展示一个文档。 活动记录:有相关的记录页面。 办活动的初衷是宣扬 AI 不只是降本增效的工具,还有很多乐趣等待挖掘,例如大理户外圆桌讨论、清迈的 AI 逛古城、杭州的 AI 玄学小组。
2025-04-13
有AI在各个行业的案例吗
以下是 AI 在各个行业的一些应用案例: 汽车行业: 1. 自动驾驶技术:利用 AI 进行图像识别、传感器数据分析和决策制定,如特斯拉、Waymo 和 Cruise 等公司在开发和测试自动驾驶汽车。 2. 车辆安全系统:AI 用于增强自动紧急制动、车道保持辅助和盲点检测等系统,通过分析数据预防事故。 3. 个性化用户体验:根据驾驶员偏好和习惯调整车辆设置,如座椅位置、音乐选择和导航系统。 4. 预测性维护:分析车辆实时数据预测潜在故障和维护需求,减少停机时间和维修成本。 5. 生产自动化:在汽车制造中用于自动化生产线,提高生产效率和质量控制。 6. 销售和市场分析:汽车公司用 AI 分析市场趋势、消费者行为和销售数据,制定营销策略和优化产品定价。 7. 电动化和能源管理:在电动汽车的电池管理和充电策略中发挥作用,提高能源效率和延长电池寿命。 8. 共享出行服务:如 Uber 和 Lyft 等,使用 AI 优化路线规划、调度车辆和定价策略,提高服务效率和用户满意度。 9. 语音助手和车载娱乐:AI 驱动的语音助手允许驾驶员通过语音控制车辆功能、获取信息和娱乐内容。 10. 车辆远程监控和诊断:AI 系统远程监控车辆状态,提供实时诊断和支持。 其他行业: 1. 企业运营:包括日常办公文档材料撰写整理、营销对话机器人、市场分析和销售策略咨询等。 2. 教育:协助评估学生学习情况,为职业规划提供建议,定制化学习内容,论文初稿搭建及审核,帮助低收入国家/家庭获得平等教育资源。 3. 游戏/媒体:定制化游戏、动态生成 NPC 互动、自定义剧情、开放式结局,出海文案生成、语言翻译及辅助广告投放和运营,数字虚拟人直播,游戏平台代码重构,AI 自动生成副本。 4. 零售/电商:舆情、投诉、突发事件监测及分析,品牌营销内容撰写及投放,自动化库存管理,自动生成或完成 SKU 类别选择、数量和价格分配,客户购物趋势分析及洞察。 5. 金融/保险:个人金融理财顾问,贷款信息摘要及初始批复,识别并检测欺诈活动风险,客服中心分析及内容洞察。
2025-04-12
用AIGC生成的单镜头循环视频案例
以下是一些用 AIGC 生成的单镜头循环视频的案例: OpenAI 的 Sora 视频生成模型:能够生成长达 1 分钟的视频,在时长、稳定性、一致性和运动幅度上表现出色。它可以根据提供的图像和提示生成视频,还能在时间上向前或向后扩展视频以产生无缝的无限循环。此外,能零镜头地改变输入视频的风格和环境,在两个输入视频之间逐渐进行插值创建无缝过渡,也能够生成图像。 Luma 视频生成工具 Dream machine 增加了尾帧生成视频的功能和循环视频生成功能。 智谱 AI 发布的 DiT 视频生成模型“智谱清影”,支持文生和图生视频,目前免费使用,加速生成需要付费。 此外,还有一些其他相关项目: Google 的 Genie 采用 STtransformer 架构,包括潜在动作模型、视频分词器与动力学模型,拥有 110 亿参数。 DeepMind 的 WaveNet 是一种生成模型,可以生成非常逼真的人类语音。 OpenAI 的 MuseNet 是一种生成音乐的 AI 模型,可以在多种风格和乐器之间进行组合。 ElevenLabs 的 Multilingual v2 是一种语音生成模型,支持 28 种语言的语音合成服务。 Stability 发布了 Stable Video 4D 模型,可以从视频中生成更多角度的新视频。 Pixverse 更新了 V2 版本 DiT 视频模型,支持 8 秒时长视频生成、细节和动作增强、支持最多 5 段内容一次性生成,无缝衔接。
2025-04-10
推荐知识库中用ai做学术的案例
以下是知识库中与用 AI 做学术相关的案例和信息: B 站 up 主的课程:每节 15 分钟,免费且内容好,涵盖 AI 艺术字等。 炼丹操作:16 号晚上中老师会带大家动手炼丹,炼丹需提前准备一些图,会让老师提前发布内容让大家准备。 高效 PB 及相关案例:高效 PB 投入力度大,有厉害的伙伴,案例在社区,有多种 battle 方式,会有菩萨老师专门介绍。 初学者入门推荐:推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。 经典必读文章:如介绍 GPT 运作原理、Transformer 模型、扩散模型等的文章,还包括软件 2.0 时代相关内容。 历史脉络类资料:整理了 open AI 的发展时间线和万字长文回顾等。 6 月 29 日更新:翻译完 a16z 推荐的 AI 典藏文章其中两篇:。
2025-04-01
有AI+游戏的最新案例吗
以下是一些 AI+游戏的最新案例: 由 5 人独立游戏工作室 Proxima 开发的 AI 冒险独立游戏 Suck Up!上线三周油管播放超千万。这是一款沙盒社交冒险游戏,团队尝试加入了名为 Nemo 的 AI NPC,基于 LLM 驱动,Nemo 能在接收到用户命令或其他线索后,调动感知、记忆,并转化为可执行的游戏行动。去年上半年,该工作室因获得 160 万美元投资引起轰动,上线后也受到资本关注。玩家对其玩法和模式提出了很多创意想法,如设计成就系统、上线多人模式等。 开发者正在使用 AI 生成音乐来填充游戏过程与游戏 UI 中需要使用到的各类音效、不同游戏场景中用以渲染氛围的各种音乐。像 MusicLM 等模型已经支持生成多音轨的作品。 2023 年 Genfun.ai 和 Meshy 联合制作的游戏《Soul Chronicle》,是首款实时 3D+AIGC+UGC 的 MMO 手游,最大突破是制作出了与游戏完美融合的 3D AIGC 技术,可在游戏中实时生成角色皮肤。 2024 年 Bitmagic 释出的《Roleverse》平台,可在平台内使用提示在游戏内定制角色,对角色进行缩放、挤压和拉伸,也能轻松对游戏世界进行编辑。 AI 技术在游戏行业的应用由来已久,且不断发展。从最初的简单内容和随机元素生成,到辅助游戏设计,再到如今能够生成更复杂的游戏内容,如动态场景、智能 NPC 行为等。AI 对游戏创作的影响包括美术与风格、剧情与叙事、关卡与玩法、音效与音乐、测试与优化等方面。同时,AI 能基于玩家游戏行为评估玩家技能水平和游戏风格,动态调整游戏难度等,提升玩家体验。此外,游戏还能成为 AI 模型能力的最佳试验场。
2025-04-01