Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

RAG技术基本了解

Answer

RAG(Retrieval Augmented Generation,检索增强生成)是一种结合信息检索和文本生成能力的技术,主要用于处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。

其基本流程包括以下几个步骤:

  1. 文档加载:从多种不同来源加载文档,如PDF 在内的非结构化数据、SQL 在内的结构化数据以及 Python、Java 之类的代码等。
  2. 文本分割:文本分割器把文档切分为指定大小的块,称为“文档块”或者“文档片”。
  3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。
  4. 检索:通过某种检索算法从向量数据库中找到与输入问题相似的嵌入片。
  5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM(大语言模型),LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。

RAG 由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。在给定一个用户的输入(如问题或话题)时,RAG 会从数据源中检索出相关的文本片段作为上下文,然后将用户输入和检索到的上下文拼接成完整输入传递给大模型,并从大模型的输出中提取或格式化所需信息返回给用户。

Content generated by AI large model, please carefully verify (powered by aily)

References

手把手教你本地部署大模型以及搭建个人知识库

因为利用大模型的能力搭建知识库本身就是一个RAG技术的应用。所以在进行本地知识库的搭建实操之前,我们需要先对RAG有一个大概的了解。以下内容会有些干,我会尽量用通俗易懂的描述进行讲解。我们都知道大模型的训练数据是有截止日期的,那当我们需要依靠不包含在大模型训练集中的数据时,我们该怎么做呢?实现这一点的主要方法就是通过检索增强生成RAG(Retrieval Augmented Generation)。在这个过程中,首先检索外部数据,然后在生成步骤中将这些数据传递给LLM。我们可以将一个RAG的应用抽象为下图的5个过程:文档加载(Document Loading):从多种不同来源加载文档。LangChain提供了100多种不同的文档加载器,包括PDF在内的非结构化的数据、SQL在内的结构化的数据,以及Python、Java之类的代码等文本分割(Splitting):文本分割器把Documents切分为指定大小的块,我把它们称为“文档块”或者“文档片”存储(Storage):存储涉及到两个环节,分别是:将切分好的文档块进行嵌入(Embedding)转换成向量的形式将Embedding后的向量数据存储到向量数据库检索(Retrieval):一旦数据进入向量数据库,我们仍然需要将数据检索出来,我们会通过某种检索算法找到与输入问题相似的嵌入片Output(输出):把问题以及检索出来的嵌入片一起提交给LLM,LLM会通过问题和检索出来的提示一起来生成更加合理的答案[heading2]文本加载器(Document Loaders)[content]文本加载器就是将用户提供的文本加载到内存中,便于进行后续的处理

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG介绍[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。

开发:LangChain应用开发指南-大模型的知识外挂RAG

原创AI小智AI小智2023-12-11 08:10发表于湖北AI大模型能够处理广泛主题的文本生成,但模型知识只能基于它们训练时使用的公开数据。如果你想构建能够利用私有数据或实时数据进行推理的AI应用,你需要用特定的信息来增强模型的知识。将相关信息检索并插入到模型的输入中,即检索增强生成(Retrieval Augmented Generation,RAG)。在本文中,我们将介绍如何使用LangChain开发一个简单的RAG问答应用。我们将依次介绍典型的问答架构,讨论相关的LangChain组件,并展示如何跟踪和理解我们的应用。[heading3]RAG的基本概念[content]RAG是一种结合了检索和生成的技术,它可以让大模型在生成文本时利用额外的数据源,从而提高生成的质量和准确性。RAG的基本流程如下:首先,给定一个用户的输入,例如一个问题或一个话题,RAG会从一个数据源中检索出与之相关的文本片段,例如网页、文档或数据库记录。这些文本片段称为上下文(context)。然后,RAG会将用户的输入和检索到的上下文拼接成一个完整的输入,传递给一个大模型,例如GPT。这个输入通常会包含一些提示(prompt),指导模型如何生成期望的输出,例如一个答案或一个摘要。最后,RAG会从大模型的输出中提取或格式化所需的信息,返回给用户。

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
了解学习阿里云百炼
阿里云百炼是基于通义系列大模型和开源大模型打造的一站式大模型服务平台,具有以下特点和优势: 提供「生成式大模型的应用编排搭建能力」和「企业大模型的全链路训练部署能力」,是企业 AI 时代的首选。 核心能力和优势: 大模型 API 服务:高可用、高性能、高性价比,提供通义闭源和开源系列大模型,以及图片、语音等多模态大模型和国内优质三方大语言模型。 AI 应用搭建:可观测、可干预、可追踪,提供 RAG 智能体应用、工作流编排和智能体编排三类使用场景的应用构建能力,以及包含插件能力、运营工具箱等适配工具,实现 10 分钟拖拉拽快速搭建 AI Agent。 同时提供很多行业级的解决方案,如短剧剧本创作、企业线索挖掘、泛企业 VOC 挖掘等。 其能力以原子级别的能力出售,即 API 能力,可结合日常场景进行二次加工应用。 体验相关: 百炼大模型平台体验入口:https://bailian.console.aliyun.com//home (需要登陆阿里云账号,也可以使用支付宝、钉钉、手机号快速注册登陆)。 建议注册后先进行实名认证,方便后续的一系列体验工作,以及领取一些免费的学习云资源。 此外,还有以下相关内容: 第一期「AI 实训营」手把手学 AI 中,本期共学直播地址:会议时间为 20:00 21:30 。 「第一天」COW 项目中,此教程是为 COW 项目接入千问、百炼而作,使用此教程的前提是已完成 COW 机器人的搭建,或者准备进行搭建。百炼首页:https://bailian.console.aliyun.com/ 。在调用阿里云的 AI 服务时有两种方式,一是直接调用模型,如通义千问系列以及其他的大模型产品服务。
2025-04-14
我想了解最新的ai的即时信息(最新资讯与ai工具)
以下是为您提供的最新 AI 即时信息和工具: 4 月 1 日 AI 资讯: 【AI 模型及应用】 OpenAI:将会开源一个推理模型,ChatGPT 即将推出推理强度控制选项,Gpt4o 生图能力面向免费用户。 Gemini 2.5 Pro:免费使用,任何人都可以使用 Canvas 进行编码和创作。 【AI 视频】 Higgsfield:发布 50 多个电影级摄影机动作预设,提升动态镜头表现力。 luma:为 Ray 2 引入摄像机运动概念,可基于预设镜头并组合编辑。 Remakes:支持基于用户上传图像直接编辑,并融合 Remade 视频特效,简化创意流程。 Meta:宣布推出 MoCha 系统,实现电影级说话角色合成效果。 【AI 3D】 HSMR:推出从单张图像重建人体 3D 骨骼和网格模型的系统。 krea:引入 AI 3D 生成能力,扩展其创意工具的功能范围。 PGC:推出基于物理的单一姿势高斯布料模拟技术,提升数字服装的真实感。 【AI 音频】 MiniMax Audio:发布全新 Speech02 语音模型,提升语音合成质量。 3 月 19 日 AI 资讯: 【AI 模型】 英伟达:发布全球首个开源人形机器人基础模型 Isaac GR00T N1 及相关 GTC 信息。 谷歌 Gemini:放出了两个功能 Canvas 和 Audio Overview。 【AI 视频】 STAbility AI:发布 Stable Virtual Camera,2D 图像转化 3D 视频。 Domo AI:推出“图片说话”功能,带口型匹配。 【AI 3D】 Roblox:推出 AI 3D 技术 Cube 3D。 Claude MCP Unity 版本推出。 【AI 音乐】 AI 音乐工具 Udio:推出 v1.5 Allegro。 LVAS Agent:基于多智能体协作的长视频音频合成。 获取 AI 资讯的渠道: 公众号:超时空视角、AI 替代人类。 小红书/抖音:EverAI。 B 站:Ever AI 酱(这里会有教程及 AI 工具界面操作)。 关于“通往 AGI 之路”知识库和社区平台: WaytoAGI(通往 AGI 之路)是一个致力于人工智能(AI)学习的中文知识库和社区平台。为学习者提供系统全面的 AI 学习路径,覆盖从基础概念到实际应用的各个方面。 汇集了上千个人工智能网站和工具,提供最新的 AI 工具、AI 应用、AI 智能体和行业资讯。 提供丰富的学习资源,包括文章、教程、工具推荐以及最新的 AI 行业资讯等。 社区定期组织活动,如视频挑战赛、模型创作大赛等,鼓励成员在实践中学习,促进交流与合作。 引领并推广开放共享的知识体系,倡导共学共创等形式,孵化了 AI 春晚、离谱村等大型共创项目。 在没有任何推广的情况下,WaytoAGI 一年时间已有超过 100 万用户和超千万次的访问量。 目前合作过的公司/产品包括阿里云,通义千问,淘宝,智谱,支付宝,豆包,火山引擎,marscode,coze,堆友,即梦,可灵,MiniMax 海螺 AI,阶跃星辰,百度,Kimi,吐司,liblib,华硕,美团,美的,360,伊利,魔搭,央视频,Civitai,Openart,Tripo3D,青椒云等。
2025-04-10
我想了解AI的应用方式
AI 的应用方式广泛且多样,主要包括以下几个方面: 1. 医疗保健: 医学影像分析,辅助诊断疾病。 药物研发,加速研发过程。 个性化医疗,提供个性化治疗方案。 机器人辅助手术,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈,降低金融机构风险。 信用评估,辅助贷款决策。 投资分析,帮助投资者做出明智决策。 客户服务,提供 24/7 服务并回答常见问题。 3. 零售和电子商务: 产品推荐,根据客户数据推荐感兴趣的产品。 搜索和个性化,改善搜索结果和提供个性化购物体验。 动态定价,根据市场需求调整产品价格。 聊天机器人,回答客户问题和解决问题。 4. 制造业: 预测性维护,预测机器故障避免停机。 质量控制,检测产品缺陷提高质量。 供应链管理,优化供应链提高效率和降低成本。 机器人自动化,控制工业机器人提高生产效率。 5. 交通运输: 自动驾驶,提高交通安全性和效率。 交通管理,优化交通信号灯和流量缓解拥堵。 物流和配送,优化路线和配送计划降低运输成本。 无人机送货,将货物快速送达偏远地区。 6. 其他应用场景: 教育,提供个性化学习体验。 农业,分析农田数据提高农作物产量和质量。 娱乐,开发虚拟现实和增强现实体验。 能源,优化能源使用提高能源效率。 此外,还有众多具体的 AI 应用产品,如辅助创作与学习方面的 AI 智能写作助手、语言学习助手等;推荐与规划方面的图像识别商品推荐、旅游行程规划器等;监控与预警方面的宠物健康监测设备、家居安全监控系统等;优化与管理方面的办公自动化工具、物流路径优化工具等;销售与交易方面的艺术作品生成器、汽车销售平台等。总之,AI 的应用场景还在不断扩展,未来将对我们的生活产生更加深远的影响。
2025-04-09
AI的基础知识了解
以下是关于 AI 基础知识的介绍: AI 背景知识: 基础理论:明确人工智能、机器学习、深度学习的定义以及它们之间的关系。 历史发展:简要回顾 AI 的发展历程和重要里程碑。 数学基础: 统计学基础:熟悉均值、中位数、方差等统计概念。 线性代数:了解向量、矩阵等基本概念。 概率论:掌握基础的概率论知识,如条件概率、贝叶斯定理。 算法和模型: 监督学习:了解常用算法,如线性回归、决策树、支持向量机(SVM)。 无监督学习:熟悉聚类、降维等算法。 强化学习:了解其基本概念。 评估和调优: 性能评估:知道如何评估模型性能,包括交叉验证、精确度、召回率等。 模型调优:学习使用网格搜索等技术优化模型参数。 神经网络基础: 网络结构:理解包括前馈网络、卷积神经网络(CNN)、循环神经网络(RNN)等基本结构。 激活函数:了解常用的激活函数,如 ReLU、Sigmoid、Tanh。 对于新手学习 AI,建议: 了解 AI 基本概念:阅读「」部分,熟悉术语和基础概念,了解其主要分支及联系,浏览入门文章。 开始学习之旅:在「」中找到为初学者设计的课程,推荐李宏毅老师的课程,通过在线教育平台按自己节奏学习并获取证书。 选择感兴趣的模块深入学习:AI 领域广泛,可根据兴趣选择特定模块,如掌握提示词技巧。 实践和尝试:理论学习后进行实践,尝试使用各种产品并分享作品。 体验 AI 产品:与如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式。
2025-04-09
我想了解如何提取自己的声音并实现大模型以我的声音回答我
要提取自己的声音并实现大模型以您的声音回答,目前提供的知识库中没有直接相关的详细内容。但可以为您提供一些可能有用的思路和参考方向: 对于声音提取,可能需要使用专业的音频处理软件和设备,将您的声音录制并进行处理和分析。 关于让大模型以您的声音回答,这可能涉及到语音合成技术。您可以先了解一些常见的语音合成模型和工具,例如通过创建大模型问答应用,获取推理 API 服务等。 同时,还可以参考一些关于大模型和语音处理的专业知识,比如大模型的本质是基于语言的概率模型,通过设置合适的 Prompt 来引导模型输出更准确的结果。 由于知识库中没有确切的针对您需求的详细步骤和方法,以上内容仅供您初步参考。
2025-04-01
我希望了解人工智能大模型公司的整体产业情况
以下是关于人工智能大模型公司的整体产业情况: 2024 年被称为国内大模型落地元年,经过一年时间的发展,呈现出以下特点: 1. 竞争格局:国内大模型行业基本形成了以百度、阿里、字节等科技大厂和创业“AI 六小虎”为主要玩家的竞争态势。 2. 落地增长:2024 年 1 至 11 月,国内大模型中标项目数量和金额大幅增长。中标项目共 728 个,是 2023 年全年的 3.6 倍;中标金额 17.1 亿元,是 2023 年全年的 2.6 倍。中标项目数前五的行业分别是运营商、能源、教育、政务、金融。 3. 厂商表现:百度在中标数量和金额方面排名所有厂商之首,科大讯飞居第二。在金融行业,百度也排名第一。 4. 行业应用:在智能终端行业,超半数手机厂商使用文心大模型,多家车企已接入百度文心大模型。 5. 能力要求:大模型进入产业落地后,除模型本身能力外,落地应用所需的全栈技术能力、工程化配套工具等对落地效果有直接影响。企业落地大模型需要具备构建算力、数据治理、模型训练、场景落实、应用搭建、持续运营、安全合规等整套能力,大模型的竞争正成为体系化之战。 此外,2023 年国内大模型发展情况包括:智谱推出了 4 代 GLM,MiniMax 推出新模型及“星野”APP,月之暗面在长 Token 能力上表现出色。但在 2C 端真正出圈的产品较少,在 2B 行业中,大模型对收入撬动有限。硬件层上,国内仍缺乏胜任大模型训练的芯片,华为昇腾在单卡指标上接近,但存在稳定性和生态问题。
2025-03-27
从最基本的原理开始讲
以下是为您从最基本的原理开始讲解的相关内容: 强化学习: 从最开始的 K 臂抽奖机器入手讲解了强化学习的基本原理,然后切入到 Qlearning 中学习如何使用 Q 表来进行强化学习,最后再借助神经网络将 Q 表替换成用函数来拟合计算 Q 值。 参考文章: https://lilianweng.github.io/posts/20180123multiarmedbandit/ https://yaoyaowd.medium.com/%E4%BB%8Ethompsonsampling%E5%88%B0%E5%A2%9E%E5%BC%BA%E5%AD%A6%E4%B9%A0%E5%86%8D%E8%B0%88%E5%A4%9A%E8%87%82%E8%80%81%E8%99%8E%E6%9C%BA%E9%97%AE%E9%A2%9823a48953bd30 https://zh.wikipedia.org/wiki/%E8%92%99%E5%9C%B0%E5%8D%A1%E7%BE%85%E6%96%B9%E6%B3%95 https://rl.qiwihui.com/zh_CN/latest/partI/index.html https://github.com/ty4z2008/Qix/blob/master/dl.md https://hrl.boyuai.com/ http://zh.d2l.ai/ 苏格拉底辩证法及其第一性原理: 这里所说的“辩证法”,是一种通过提问和回答,深入挖掘、质疑和明确观念的艺术,是始于苏格拉底的、源头上的“辩证法”。这门艺术可通过一系列问题,不断挑战人们对世界的既定认知,揭示其中的矛盾和不足,从而引领人们学会自我反思并走向真理。把 AI 作为方法,就是要用辩证法以对话方式引导出 AI 被预训练的世界级的知识和推理能力,然后使其变成我们可以重复调用的“专家级团队”。既然先进的大语言模型是预训练的、以自然语言对话为交互的,又因为人们创造“概念”是为了对事物达成共识,并能更好地交流,所以我们就选择从对话开始,追本溯源,探索如何对话、如何训练对话能力及如何操纵概念——直达认知事物的第一性原理,然后再回到应用上来。 Stable Diffusion: 从艺术和美学的角度来看,扩散模型可以被理解为一种创作和表达过程,其中的元素通过互动和影响,形成一种动态的、有机的整体结构。 前向扩散过程是一个不断加噪声的过程。例如,在猫的图片中多次增加高斯噪声直至图片变成随机噪音矩阵。对于初始数据,设置 K 步的扩散步数,每一步增加一定的噪声,如果设置的 K 足够大,就能够将初始数据转化成随机噪音矩阵。扩散过程是固定的,由 Schedule 算法进行统筹控制。同时扩散过程也有一个重要的性质:可以基于初始数据 X0 和任意的扩散步数 Ki,采样得到对应的数据 Xi 。 反向扩散过程和前向扩散过程正好相反,是一个不断去噪的过程。将随机高斯噪声矩阵通过扩散模型的 Inference 过程,预测噪声并逐步去噪,最后生成一个小别墅的有效图片。其中每一步预测并去除的噪声分布,都需要扩散模型在训练中学习。
2025-04-14
请帮我生成一个大三毕业论文的题目,专业是关于计算机应用的,技术栈:Python(Pandas/Matplotlib),MYSQL,生成可视化图表,可生成HTML网站,包含数据分析,需要有最基本的功能,最好与生活中的某些东西联系起来
以下是为您生成的几个与生活相关的计算机应用专业大三毕业论文题目,供您参考: 1. 《基于 Python 和 MySQL 的居民日常消费数据分析及可视化网站构建》 2. 《利用 Python 和 MySQL 分析城市交通流量数据并实现可视化与网站展示》 3. 《基于 Python 和 MySQL 的家庭能源消耗数据分析与可视化网站设计》 4. 《运用 Python 和 MySQL 对校园图书馆借阅数据的分析及可视化网站开发》 5. 《通过 Python 和 MySQL 研究城市空气质量数据的可视化分析与网站实现》
2025-04-11
模型训练的基本名词和方法
以下是关于模型训练的基本名词和方法的介绍: 基本名词: 1. 过拟合&欠拟合:过拟合和欠拟合都是不好的现象,需要加以控制以让模型达到理想效果。解决方法包括调整训练集、正则化和训练参数等,过拟合可减少训练集素材量,欠拟合则增加训练集素材量。 2. 泛化性:泛化性不好的模型难以适应其他风格和多样的创作。可通过跑 lora 模型生图测试判断泛化性,解决办法与过拟合和欠拟合类似,从训练集、正则化、训练参数等方面调整。 3. 正则化:是解决过拟合和欠拟合情况、提高泛化性的手段,给模型加规则和约束,限制优化参数,有效防止过拟合,提高模型适应不同情况的表现和泛化性。 方法: 1. 全面充分采集训练素材:例如在角色训练素材中,应包含各种角度、表情、光线等情况的素材,确保模型具有较好泛化性。 2. 图像预处理:对训练素材进行分辨率调整、裁切操作,并对训练集进行打标签处理。 3. 参数调优:尽量将训练时长控制在半小时左右,过长易导致过拟合,通过调整参数控制时长。 4. 观察学习曲线:通过观察学习曲线来调整训练素材和参数。 5. 过拟合&欠拟合处理:测试训练好的模型,观察过拟合和欠拟合问题,进一步通过调整训练素材和正则化等手段优化。 此外,在模型训练中还需注意: 1. 数据集获取渠道:可通过网上收集、购买、使用无版权问题的如古画等,原则是根据生成图的需求找对应数据集,要清晰、主体元素干净、风格统一。 2. 数据集处理:包括基础处理如裁剪保证清晰和分辨率,更重要的是写标注。 3. 设置模型触发词:可自定义,完整形式可以是一句话,建议以王 flags 模型为主。 4. 统一标注风格与应用场景:例如未来高科技 3D 天然风格,用于互联网首页图像等,并概括主题内容、描述物体特征等。 5. 利用 GPT 辅助描述并人工审核:让 GPT 按要求描述,人工审核修改。 6. 模型训练的准备与流程:完成数据集描述后进入训练流程,选择模型训练分类和数据集,创建并上传数据集压缩包,注意数据名与图片命名一致。选择训练模式和参数,新手选用普通基础模式,训练集质量重要,训练参数中总步数与训练集图片数量相关,触发词设定要避免概念混乱。
2025-04-09
介绍一下秘塔AI的基本情况和使用技巧
秘塔 AI 是一款优秀的工具,具有以下基本情况和使用技巧: 基本情况: 整体流程较长且完整,首先需要构建专题,并上传文档或者复制网页链接。 搜索完成后的操作类型丰富,例如可以继续追问、导出文档、收藏、保存到秘塔写作猫并编辑、生成在线演示文稿、下载脑图图片等,还能查看与原文的对应关系并进一步搜索。 RAG 和搜索能力出色,是国产之光。 使用技巧: 构建专题时,认真准备上传的文档或网页链接。 搜索时,在搜索框左下角选中专题以定制数据源。 充分利用丰富的搜索完成后的操作,满足不同需求,如追问、编辑、分享等。 您可以通过以下链接访问秘塔 AI 搜索:https://metaso.cn
2025-03-26
介绍AI基本概念和目前发展阶段
AI 的基本概念: 人工智能(AI)是指让计算机模拟人类智能的技术。 主要分支包括机器学习、深度学习、自然语言处理等,它们之间存在密切联系。 目前发展阶段: 已取得显著进展,如聊天机器人具备基本对话能力,能用于客户服务和简单查询响应。 推理者如 ChatGPT 能解决复杂问题并提供详细分析和意见。 智能体虽能执行部分自动化业务,但仍需人类参与。 创新者如谷歌 DeepMind 的 AlphaFold 模型能协助人类完成新发明。 最高级别的组织型 AI 能自动执行组织的全部业务流程,但尚未完全实现。 对于新手学习 AI: 建议阅读「」熟悉术语和基础概念。 浏览入门文章了解历史、应用和发展趋势。 在「」中找到初学者课程,特别推荐李宏毅老师的课程。 通过在线教育平台按自己节奏学习并获取证书。 根据兴趣选择特定模块深入学习,掌握提示词技巧。 理论学习后进行实践,尝试使用各种产品并分享实践成果。 体验如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人。 如果希望继续精进 AI: 了解 AI 背景知识,包括基础理论、历史发展。 掌握数学基础,如统计学、线性代数、概率论。 熟悉算法和模型,如监督学习、无监督学习、强化学习。 学会评估和调优模型性能。 了解神经网络基础,包括网络结构和激活函数。
2025-03-20
1、Puzzle 选择一个你(们)感兴趣的社会问题或者现象。 “赛博信仰”指在网络环境下衍生的一系列超现实、寄托心理期许的新兴文化现象。这种现象反映了人们在数字化时代中对精神寄托、心理安慰和未来预测的需求。赛博信仰不仅是一种文化现象,也反映了现代社会中人们对科技、信仰和现实之间关系的重新思考。 2、Facts 关于这个问题/现象,都有哪些基本事实? 比如有人购买电子形式的马克思、爱因斯坦的脑子,象征着对智慧的渴望;借助塔罗测试程序、deepseek算命等AI工具,尝试预知命运;夸赞鹿童、转发锦鲤
关于“赛博信仰”这一现象,目前所了解到的基本事实包括:有人购买电子形式的马克思、爱因斯坦的脑子以象征对智慧的渴望;借助塔罗测试程序、deepseek 算命等 AI 工具尝试预知命运;夸赞鹿童、转发锦鲤等。但目前掌握的相关事实相对有限,还需要进一步的研究和观察来更全面地了解这一现象。
2025-03-13
能画技术路线图的prompt
以下是关于能画技术路线图的 prompt 相关内容: Midjourney Bot 的 Prompt 类型: 基本 Prompts:可以只是一个单词、短语或表情符号。 高级 Prompts:包括一个或多个图片 URL、多个文本短语以及一个或多个参数。其中,图片 URL 始终位于 prompt 的最前面,以影响完成结果的风格和内容。提示文字是对希望生成的图像的文本描述,精心编写的提示有助于生成惊艳的图像。参数可以改变生成图片的方式,需放在提示语的末尾。 ComfyUI Flux 与 runway 制作绘画视频: 生成图片:提示词告诉 flux 生成一张技术草图,如 CAD。 绘制的视频:在 runway 里面,使用提示词从空白页面开始逐行创建,并把生成的图片作为尾帧。 草图上色:使用 flux 的 controlNet,depth 固定,目前 Union 版本不建议权重调太高,结束时间也需注意。 Prompt engineering(提示工程): 开发测试用例:定义任务和成功标准后,创建多样化的测试用例,包括典型示例和边界情况,以确保提示具有鲁棒性。 设计初步提示:制定初步提示,概述任务定义、良好响应的特征及必要上下文,添加规范输入和输出的示例供参考。 根据测试用例测试提示:使用初步提示将测试用例输入,评估模型响应与预期输出和成功标准的一致性,使用一致的评分标准进行系统性的性能评估。
2025-04-19
金融业相关AI应用场景或AI技术介绍
在金融业中,AI 有以下应用场景和技术: 1. 风控和反欺诈:用于识别和阻止欺诈行为,降低金融机构的风险。 2. 信用评估:评估借款人的信用风险,帮助金融机构做出更好的贷款决策。 3. 投资分析:分析市场数据,辅助投资者做出更明智的投资决策。 4. 客户服务:提供 24/7 的客户服务,回答客户常见问题。 例如,Hebbia 获得近 1 亿美元 B 轮融资,其 AI 技术能够一次处理多达数百万份文档,在短时间内浏览数十亿份包括 PDF、PowerPoint、电子表格和转录内容等,并返回具体答案,主要面向金融服务公司,如对冲基金和投资银行,同时也适用于律师事务所等其他专业领域。
2025-04-15
stable diffusion底层技术
Stable Diffusion 的底层技术主要来源于 AI 视频剪辑技术创业公司 Runway 的 Patrick Esser 以及慕尼黑大学机器视觉学习组的 Robin Romabach 之前在计算机视觉大会 CVPR22 上合作发表的潜扩散模型(Latent Diffusion Model)研究。 Stable Diffusion 是一种基于潜在扩散模型的文本到图像生成模型,其原理包括以下几个步骤: 1. 使用新颖的文本编码器(OpenCLIP),由 LAION 开发并得到 Stability AI 的支持,将文本输入转换为向量表示,以捕捉文本语义信息并与图像空间对齐。 2. 采用扩散模型,将随机噪声图像逐渐变换为目标图像。扩散模型是一种生成模型,能从训练数据中学习概率分布并采样新数据。 3. 在扩散过程中,利用文本向量和噪声图像作为条件输入,给出每一步变换的概率分布,根据文本指导噪声图像向目标图像收敛,并保持图像的清晰度和连贯性。 4. 使用超分辨率放大器(Upscaler Diffusion Model),将生成的低分辨率图像放大到更高分辨率,从低分辨率图像中恢复细节信息并增强图像质量。 此外,ComfyUI 的底层依赖 Stable Diffusion,去噪过程由 UNet 网络完成。UNet 是一种编码器解码器结构,能处理多尺度特征表示。在 ComfyUI 中,去噪的每个步骤通过模型推理模块实现,调用训练好的 UNet 模型逐步将噪声图像还原成有意义的图像。交叉注意力机制在 Stable Diffusion 中很重要,允许模型在生成过程中融入文本提示、图像、语义信息等条件,在 ComfyUI 中通过“文本提示”和“条件输入”节点实现。跳跃连接是 UNet 的核心部分,能在不同尺度之间共享特征,在 ComfyUI 的节点网络中表现为中间过程数据的流转。切换器代表在去噪过程中的不同阶段对特征流的控制,在 ComfyUI 中可通过修改模型参数节点或自定义网络结构节点对不同阶段的噪声去除策略进行微调。 Stable Diffusion 还具有以下优点: 1. 可以处理任意领域和主题的文本输入,并生成与之相符合的多样化和富有创意的图像。 2. 可以生成高达 2048x2048 或更高分辨率的图像,且保持良好的视觉效果和真实感。 它还可以进行深度引导和结构保留的图像转换和合成,例如根据输入图片推断出深度信息,并利用深度信息和文本条件生成新图片。
2025-04-15
学习AI怎么在工作中使用,提高工作效率,有必要从技术原理开始学习吗
学习 AI 在工作中使用以提高工作效率,不一定需要从技术原理开始学习。以下是一些相关的案例和建议: 案例一:GPT4VAct 是一个多模态 AI 助手,能够模拟人类通过鼠标和键盘进行网页浏览。其应用场景在于以后互联网项目产品的原型设计自动化生成,能使生成效果更符合用户使用习惯,同时优化广告位的出现位置、时机和频率。它基于 AI 学习模型,通过视觉理解技术识别网页元素,能执行点击和输入字符操作等,但目前存在一些功能尚未支持,如处理视觉信息程度有限、不支持输入特殊键码等。 案例二:对于教师来说,有专门的 AI 减负指南。例如“AI 基础工作坊用 AI 刷新你的工作流”,从理解以 GPT 为代表的 AI 工作原理开始,了解其优势短板,学习写好提示词以获得高质量内容,并基于一线教师工作场景分享优秀提示词与 AI 工具,帮助解决日常工作中的常见问题,提高工作效率。 建议:您可以根据自身工作的具体需求和特点,有针对性地选择学习方向。如果您只是想快速应用 AI 提高工作效率,可以先从了解常见的 AI 工具和应用场景入手,掌握基本的操作和提示词编写技巧。但如果您希望更深入地理解和优化 AI 在工作中的应用,了解技术原理会有一定帮助。
2025-04-15
AI相关的最前沿技术网站
以下是一些 AI 相关的前沿技术网站: 1. OpenAI:提供了诸如 GPT 等先进的语言模型和相关技术。 2. Google AI:涵盖了多种 AI 领域的研究成果和应用。 3. Microsoft Research:在 AI 方面有众多创新研究和技术展示。 此外,WaytoAGI 也是一个致力于人工智能学习的中文知识库和社区平台,汇集了上千个人工智能网站和工具,提供最新的 AI 工具、应用、智能体和行业资讯。在没有任何推广的情况下,WaytoAGI 两年时间已有超过 300 万用户和超千万次的访问量,其目标是让每个人的学习过程少走弯路,让更多的人因 AI 而强大。目前合作过的公司/产品包括阿里云、通义千问、淘宝、智谱、支付宝等。
2025-04-15
,当前AI数字人发展的新态势,以及新技术和成果
当前 AI 数字人的发展呈现出以下新态势,并取得了一系列新技术和成果: 数字人简介: 数字人是运用数字技术创造的,虽现阶段未达科幻作品中的高度智能,但已在生活多场景中出现且应用爆发。业界对其尚无准确定义,一般可按技术栈分为真人驱动和算法驱动两类。真人驱动的数字人重在通过动捕设备或视觉算法还原真人动作表情,主要用于影视和直播带货,其表现质量与建模精细度及动捕设备精密程度相关,不过视觉算法进步使在无昂贵动捕设备时也能通过摄像头捕捉关键点信息实现不错效果。 B 端变现与创业方向: B 端变现细分包括高频率和大规模的内容生产细分,如文字、视频、3D 模型、AI 智能体等,底层是需求和数据收集及训练模型,算力和能源是关键。自媒体创业需具备内容创新和差异化,内容成本低且更新迭代快。游戏创业可做轻量化游戏,结合 AI 技术满足放松和社交需求,专注垂类赛道避免与大厂竞争。影视创业在 25 年将是拐点,更多内容会采用 AI 技术。广告营销创业重点是 AI 虚拟人,数字插画可走治愈类型,要明确平台用户画像和产品定位,做好次留存和引入私域。 AI 虚拟人的发展与创业机遇: AI 虚拟人从早期以首位为核心的宅文化虚拟偶像,发展到以 CG 技术和动捕语音合成技术为核心的角色,再到如今以动捕和人工智能技术为核心的服务型虚拟人。虚拟人产业链包括基础层的硬件和软件研发,平台层如商汤、百度等提供工具和系统,应用层涉及影视、传媒、游戏、金融、文旅等内容变现。未来 3 10 年,AI 虚拟人是 Web 3.0 的风口,提前布局有潜力的赛道可迎接机遇,但创业对创业者综合能力要求极高。 未来展望: 数字人未来有很多应用场景,如家庭中的数字人管家、学校中的数字人老师、商场里的数字人导购等。未来还会有很多技术突破,如将五感数据和躯壳控制参数作为输入,次世代算法可自我迭代升级和自行演化躯壳控制方式。通过 Dify 搭建数字人的开源项目可展现低门槛高度定制数字人的基本思路,数字人的核心在于 Agent 即灵魂,如何在 Dify 上编排专属数字人灵魂值得体验。期望随着数字人的多模态能力接入、智能化水平升级、模型互动控制更精确,AI 既能提供高质量信息,也能关注用户情绪。
2025-04-14