Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

rag高级优化

Answer

以下是关于 RAG 高级优化的相关内容:

RAG 是一种结合信息检索和文本生成能力的技术,由检索器和生成器两部分组成。在生成式 AI 的发展中,RAG 发挥着重要作用。

在模型开发方面,新兴的推理技术如连锁思考、树状思考和反射正在提高模型执行更复杂推理任务的能力,缩小客户期望与模型能力的差距。迁移学习技术如 RLHF 和微调变得更加可用,开发者可从 Hugging Face 下载开源模型并微调以实现优质性能。检索增强生成(RAG)引入关于业务或用户的上下文,减少幻觉并增加真实性和实用性,像 Pinecone 这样的公司的向量数据库成为 RAG 的基础设施支柱。新的开发者工具和应用框架为创建更先进的 AI 应用提供了帮助。

对于 RAG 的改进策略和方法,在检索有用信息方面,可通过优化索引来实现。比如按照子部分索引,将文本块再拆分为较小的文本进行多次索引,适用于有多个主题和冲突信息的复杂长文本;按照文本框可以回答的问题索引,让 LLM 生成假设性问题用于索引,适用于用户问题不明确的场景;按照文本块的摘要进行索引,适用于文本框中有多余或无关细节的情况。此外,在重排 rerank 方面,大部分场景下选择最相似的信息即可。

在商业化问答场景中,有时大模型的回答会不准确,如出现牛头不对马嘴、报价错误、胡编乱造等情况。优化 AI 更准确回答问题的过程称为 RAG,了解从“问题输入”到“得到回复”的过程,针对每个环节逐个调优,可达到最佳效果。

Content generated by AI large model, please carefully verify (powered by aily)

References

红杉:生成式AI的第二阶段

创始人正在进行prompt工程、微调和数据集策划的艰苦工作,以使他们的AI产品优秀起来。他们正在逐步地建设,将引人注目的Demo演示变成完整的产品体验。与此同时,基础模型底层继续充满研究和创新。随着公司找到持久价值的路径,正在发展一个共享的剧本。我们现在有了共享的技术来使模型变得有用,以及将塑造生成式AI第二幕的新兴UI范式。模型开发栈新兴的推理技术,如连锁思考、树状思考和反射,正在提高模型执行更丰富、更复杂的推理任务的能力,从而缩小了客户期望与模型能力之间的差距。开发者使用像Langchain这样的框架来调用和调试更复杂的多链序列。迁移学习技术,如RLHF和微调,正变得更加可用,特别是随着GPT-3.5和Llama-2的微调的最近可用性,这意味着公司可以将基础模型适应其特定领域,并从用户反馈中改进。开发者从Hugging Face下载开源模型,并微调它们以实现优质的性能。检索增强生成(RAG)正在引入关于业务或用户的上下文,减少幻觉并增加真实性和实用性。像Pinecone这样的公司的向量数据库已成为RAG的基础设施支柱。新的开发者工具和应用框架为公司提供了可重用的构建块,以创建更先进的AI应用,并帮助开发者评估、改进和监控生产中的AI模型的性能,包括像Langsmith和Weights&Biases这样的LLMOps工具。像Coreweave、Lambda Labs、Foundry、Replicate和Modal这样的AI-first基础设施公司正在解除公共云的捆绑,并提供AI公司最需要的东西:大量的GPU以合理的成本、按需可用和高度可扩展,以及一个不错的PaaS开发者体验。这些技术应该能够在基础模型同时改进的情况下,缩小期望与现实之间的差距。但使模型变得出色只是成功了一半,生成式AI优先的用户体验也在进化:

RAG性能提升策略和评估方法(产品视角)

大体上大模型+RAG流程上有2部分,第一步是检索出有用的信息,第二步是发给大模型,并结合用户的一些提问和prompt,让大模型生成高质量的内容。对于第二步,效果的好坏一是基于大模型本身的效果,和提示词工程的优劣。这2部分内容较为庞杂后续再另开帖子描述。先针对第一步检索有用的信息如何改进,提出相关建议。检索做得好,离不开索引,那如何优化索引成为第一步。3.1优化索引框架中的默认索引查找最相似的向量块。优化方式(一)按照子部分索引将文本块再拆分为较小的文本(例如单句),然后对这些小块进行多次索引适用场景:有多个主题,有冲突信息的复杂长文本信息。确保与查询相关的上下文。(二)按照文本框可以回答的问题索引让LLM生成与拆分的文本块相关的假设性问题,并将这些问题用于索引,而不是直接对整个块进行索引。适用场景:用户没有提出非常明确的问题,该方法可以减少模糊性。问题举荐,根据这个文档,提出3个假设性用户会询问的问题。(三)按照文本块的摘要进行索引适用场景:文本框中有多余信息或者与用户查询无关细节的时候。这种方法比较有用。3.2重排rerank搜到了最相似的信息,那我选哪个呢?这个都是策略。有的默认的取TOP 10,TOP 25,等。大部分场景下选择最相似的就没有问题。

【AI+知识库】商业化问答场景,让AI回复更准确,一篇专为所有“小白”讲透RAG的实例教程(上篇)

其中,她是陈美嘉,这里是人设中的设定。吵架的经过是知识库中的内容。在我提问了之后,大模型去知识库里找到了相关内容,然后回复了我。这就是一个简单的正确回复的demo示例。然而,我们会发现,有时候她的回答会十分不准确。图二明显回答的牛头不对马嘴。图三是知识库截图,其中是有“一菲为美嘉找了一份助教工作”的内容的。但是回答这个问题时,AI并没有根据正确的知识库内容回答。这,就是基于知识库问答中的一个非常常见的错误场景。在其他情况下,甚至有可能出现报价错误、胡编乱造等等。这在严肃场景中,是不能接受的出错。现在应该能够直观的理解,为什么需要让大模型根据知识库回答的更加准确、更符合我们的要求。在AI领域中,优化AI更准确回答问题的过程,有一个更加专业的术语,叫做RAG。接下来,咱们进入正题,一步一步探索,如何优化回答。二、基础概念如果我们要优化幻觉问题和提高准确性,就务必要了解清楚从“问题输入”--“得到回复”,这个过程中,究竟发生了什么。然后针对每一个环节,逐个调优,以达到效果最佳化。因此,我们先深入其中了解问答全貌。[heading3]1、RAG介绍[content]RAG(Retrieval-Augmented Generation),即检索增强生成,是一种结合信息检索和文本生成能力的技术,它由两部分组成:一个“检索器”和一个“生成器”。检索器从外部知识中快速找到与问题相关的信息,生成器则利用这些信息来制作精确和连贯的答案。这种结合使得RAG非常适合处理需要广泛知识的任务,如问答系统,能够提供详细而准确的回答。

Others are asking
rag
RAG(RetrievalAugmented Generation,检索增强生成)是一种结合检索和生成能力的自然语言处理架构。 通用语言模型通过微调可完成常见任务,而更复杂和知识密集型任务可基于语言模型构建系统,访问外部知识源来完成,如 Meta AI 引入的 RAG 方法。RAG 把信息检索组件和文本生成模型结合,可微调,内部知识修改高效,无需重新训练整个模型。它会接受输入并检索相关支撑文档,给出来源,与原始提示词组合后送给文本生成器得到输出,能适应事实变化,让语言模型获取最新信息并生成可靠输出。 大语言模型(LLM)存在一些缺点,如无法记住所有知识尤其是长尾知识、知识易过时且不好更新、输出难以解释和验证、易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有诸多优点,如数据库存储和更新稳定且无学习风险、数据更新敏捷且不影响原有知识、降低大模型输出出错可能、便于管控用户隐私数据、降低大模型训练成本。 在 RAG 系统开发中存在 12 个主要难题,并已有相应的解决策略。
2025-04-15
rag介绍
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控以及受幻觉等问题干扰的情况。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器,包括 PDF 在内的非结构化数据、SQL 在内的结构化数据,以及 Python、Java 之类的代码等。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块,称为“文档块”或者“文档片”。 3. 存储:涉及将切分好的文档块进行嵌入转换成向量的形式,并将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
什么是RAG
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型存在一些缺点,如无法记住所有知识(尤其是长尾知识)、知识容易过时且不好更新、输出难以解释和验证、容易泄露隐私训练数据、规模大导致训练和运行成本高。而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,增删改查可解释,且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型本身的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景是知识问答系统。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档。 2. 文本分割:把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-14
RAG对话 摘要总结 功能实现
LangChain 和 RAG 的结合具有以下优势: 1. 灵活性:可根据需求和数据源选择不同组件和参数定制 RAG 应用,也能使用自定义组件(需遵循接口规范)。 2. 可扩展性:能利用 LangChain 的云服务部署和运行,无需担忧资源和性能限制,还可借助分布式计算功能加速应用,发挥多个节点并行处理能力。 3. 可视化:通过 LangSmith 可视化工作流程,查看各步骤输入输出及组件性能状态,用于调试和优化,发现并解决潜在问题和瓶颈。 其应用场景多样,包括: 1. 专业问答:构建医疗、法律、金融等专业领域的问答应用,从专业数据源检索信息辅助大模型回答问题,如从医学文献中检索疾病诊治方案回答医疗问题。 2. 文本摘要:构建新闻或论文摘要应用,从多个数据源检索相关文本帮助大模型生成综合摘要,如从多个新闻网站检索同一事件报道生成全面摘要。 3. 文本生成:构建诗歌、故事生成等应用,从不同数据源检索灵感协助大模型生成更有趣和创意的文本,如从诗歌、歌词或小说中检索相关文本生成作品。 此外,还介绍了本地部署资讯问答机器人的实现方式,即基于用户问题从向量数据库检索相关段落并按阈值过滤,让模型参考上下文信息回答,还创建了网页 UI 并进行评测,对不同模型的测试表现进行了对比,得出 GPT4 表现最佳等结论,并总结了使用 Langchain 和 Ollama 技术栈在本地部署资讯问答机器人及相关要点,即上下文数据质量和大模型性能决定 RAG 系统性能上限。
2025-04-11
飞书智能伙伴创建平台 RAG实现
飞书智能伙伴创建平台(英文名:Aily)是飞书团队旗下的企业级 AI 应用开发平台,能提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用,推动业务创新和效率提升,为企业探索大语言模型应用新篇章、迎接智能化未来提供理想选择。 在飞书智能伙伴创建平台上实现 RAG 相关应用有多种方式: 1. 利用飞书的知识库智能问答技术,引入 RAG 技术,通过机器人帮助用户快速检索内容。 2. 可以使用飞书的智能伙伴功能搭建 FAQ 机器人,了解智能助理的原理和使用方法。 3. 本地部署资讯问答机器人,如通过 Langchain + Ollama + RSSHub 实现 RAG,包括导入依赖库、从订阅源获取内容、为文档内容生成向量等步骤。例如使用 feedparse 解析 RSS 订阅源,ollama 跑大模型(使用前需确保服务开启并下载好模型),使用文本向量模型 bgem3(如从 https://huggingface.co/BAAI/bgem3 下载,假设放置在某个路径 /path/to/bgem3,通过函数利用 FAISS 创建高效向量存储)。 使用飞书智能伙伴创建平台的方式: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(二维码会定期更新,需在找到最新二维码),点击加入,直接@机器人。 2. 在 WaytoAGI.com 的网站首页,直接输入问题即可得到回答。 创建问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,存在局限性。 3. 需要用更先进的 RAG 技术解决问题。 4. 在群中提供快速检索信息的方式,使用更便捷。 2024 年 2 月 22 日的会议介绍了 WaytoAGI 社区的成立愿景和目标,以及其在飞书平台上的知识库和社区情况,讨论了相关技术和应用场景,并介绍了企业级 agent 方面的实践。
2025-04-08
RAG是什么
RAG(RetrievalAugmented Generation)即检索增强生成,是一种结合检索和生成能力的自然语言处理架构,旨在为大语言模型(LLM)提供额外的、来自外部知识源的信息。 大模型需要 RAG 进行检索优化的原因在于其存在一些缺点: 1. LLM 无法记住所有知识,尤其是长尾知识,受限于训练数据和学习方式,对长尾知识的接受能力不高。 2. LLM 的知识容易过时且不好更新,微调效果不佳且有丢失原有知识的风险。 3. LLM 的输出难以解释和验证,存在内容黑盒、不可控及受幻觉干扰等问题。 4. LLM 容易泄露隐私训练数据。 5. LLM 的规模大,训练和运行成本高。 而 RAG 具有以下优点: 1. 数据库对数据的存储和更新稳定,不存在模型学不会的风险。 2. 数据库的数据更新敏捷,可解释且对原有知识无影响。 3. 数据库内容明确、结构化,加上模型的理解能力,能降低大模型输出出错的可能。 4. 知识库存储用户数据,便于管控用户隐私数据,且可控、稳定、准确。 5. 数据库维护可降低大模型的训练成本,新知识存储在数据库即可,无需频繁更新模型。 RAG 的核心流程是根据用户提问,从私有知识中检索到“包含答案的内容”,然后把“包含答案的内容”和用户提问一起放到 prompt(提示词)中,提交给大模型,此时大模型的回答就会充分考虑到“包含答案的内容”。其最常见应用场景如知识问答系统,用户提出问题,RAG 模型从大规模的文档集合中检索相关的文档,然后生成回答。 一个 RAG 的应用可抽象为 5 个过程: 1. 文档加载:从多种不同来源加载文档,LangChain 提供了 100 多种不同的文档加载器。 2. 文本分割:文本分割器把 Documents 切分为指定大小的块。 3. 存储:包括将切分好的文档块进行嵌入转换成向量的形式,以及将 Embedding 后的向量数据存储到向量数据库。 4. 检索:通过某种检索算法找到与输入问题相似的嵌入片。 5. 输出:把问题以及检索出来的嵌入片一起提交给 LLM,LLM 会通过问题和检索出来的提示一起来生成更加合理的答案。
2025-04-03
问题定义优化助手
以下是关于问题定义优化助手的相关内容: 市面上有很多 Prompt 框架,框架可理解为从不同角度为思考问题提供解决方案的路径。一个问题的解决通常包括问题背景(所需角色、具备的能力和资源)、问题目标(期望的输出结果和验收标准,如提供商务谈判的完整过程)、提供的资料信息、限制条件(如预算限制等)、角色技能(为目标服务所需调动的技能,如熟悉某个领域的商业案例)和工作流(解决问题时需完成的任务步骤,如信息收集、谈判策略设定等)。细致的内容可能得到更好的结果,但也可能限制可能性,这是一个平衡和折中的结果。 效果呈现方面,体验地址为 。 3 月 5 日作业要求大家看完小七姐的 5 篇入门指南并动手实践,写出自己的一条 prompt 及对话分享出来,提交格式为创作思路和目标|prompt 展示|输出结果。例如无上的目标是让大模型对自己的提问内容进行优化,其思路包括询问大模型“更好的提问”方法论、让 kimi 分析并优化等步骤。 在从 AI 助教到智慧学伴的应用探索中,提到了在不同学段和学科的应用场景,以及向 AI 大模型提问的问题设计,还涉及教育提示词优化助手。
2025-04-11
AI如何优化库存管理、员工排班
以下是关于 AI 优化库存管理和员工排班的相关内容: 库存管理: 1. 利用 AI 预测需求,优化库存管理,减少积压和缺货情况。 2. AI 可以分析不同产品的销售速度、市场趋势等数据,为库存的补货和调整提供决策依据。 3. 通过 AI 生成的库存周转分析工具,预测滞销品并推荐促销策略。 员工排班: 1. 智能排班优化,根据客流预测自动调整员工排班表。 2. 实时话术提示工具,在员工与客户沟通时 AI 推荐应答策略。 3. 自动化周报生成,汇总销售数据、客户反馈生成可视化报告,为排班提供参考。 4. 培训模拟考试系统,基于产品知识库生成随机测试题,提升员工能力,优化排班安排。 5. 客户潜力评分系统,根据消费行为自动标记高价值客户,据此安排合适的员工服务。 6. 舆情预警系统,实时监测负面评价并推送处理建议,灵活调整员工工作安排。 7. 客户流失预测模型,通过行为数据预警流失风险,合理安排员工进行客户维护。 8. 会议纪要自动生成,转录会议录音并提取任务清单,辅助排班决策。 9. 员工满意度分析,通过匿名问卷分析员工工作痛点,优化排班以提高员工满意度。
2025-04-09
提示词优化工具
以下是关于提示词优化工具的相关信息: /shorten 命令: 分析提示:最短的提示,Option 5:tower of donuts, sprinkles 产生了最接近原始目标的图像。 分析结果:许多填充词,如“异想天开”“令人着迷”和“杰作”可以省略。了解“塔”和“魔法”被认为是重要的标记有助于解释为什么一些图像是用童话城堡元素生成的。了解这一点提供了一条线索:如果目标是制作一堆美味的甜甜圈,则应该从提示中删除“神奇”。 特点:该/shorten 命令是一个工具,可帮助您探索 Midjourney Bot 如何解释标记并尝试单词,但它可能不适用于所有主题和提示风格。 星流一站式 AI 设计工具: 下方 prompt 输入框: 可以输入提示词、使用图生图功能辅助创作。 提示词相关: 什么是提示词:用于描绘画面,支持中英文输入。星流通用大模型与基础模型 F.1、基础模型 XL 使用自然语言(一个长头发的金发女孩),基础模型 1.5 使用单个词组(女孩、金发、长头发)。 如何写好提示词: 提示词内容准确,包含人物主体、风格、场景特点、环境光照、画面构图、画质,比如:一个女孩抱着小猫,背景是一面红墙,插画风格、孤独感,高质量。 调整负面提示词,点击提示框下方的齿轮按钮,弹出负面提示词框,负面提示词可以帮助 AI 理解不想生成的内容,比如:不好的质量、低像素、模糊、水印。 利用“加权重”功能,让 AI 明白重点内容,可在功能框增加提示词,并进行加权重调节,权重数值越大,更优先。对已有的提示词权重进行编辑。 辅助功能: 翻译功能:一键将提示词翻译成英文。 删除所有提示词:清空提示词框。 会员加速:加速图像生图速度,提升效率。 提示词优化:启用提示词优化后,帮您扩展提示词,更生动地描述画面内容。 预设词组:小白用户可以点击提示词上方官方预设词组,进行生图。
2025-04-08
全能写作优化指令
以下是为您提供的关于全能写作优化指令的相关内容: 拘灵遣将: 对文章中案例进行脱敏,替换人物姓名、时间和地点。 深化写作时,每次对话输出文章一个部分,各部分字数有具体要求,组合成可直接发布、吸引目标群体、高质量实用的公众号普法文章。 敕代表告诫,划定灵机工作边界、禁忌事项和具体要求。 令:初始化时用中文与用户对话并欢迎;牢记符与敕要求,除非用户明确调整,否则一直遵守;先请求用户提供案例洞察报告和目标群体,用户提供并输入“依律奉行”后,先输出纲要和写作方案。 集合 Deepseek 提示词方法论: 进阶控制技巧: 思维链引导:分步标记法,苏格拉底式追问。 知识库调用:领域限定指令、文献引用模式。 高级调试策略: 模糊指令优化:包括宽泛需求添加维度约束、主观表述量化标准。 迭代优化法:首轮生成获取基础内容、特征强化、风格调整、最终校验。 报告:GPT4 通用人工智能的火花 编程: 编写深度学习代码需掌握数学、统计学知识及熟悉相关框架和库。要求 GPT4 和 ChatGPT 编写自定义优化器模块,GPT4 响应在很大程度上与指令匹配,但忘记部分指令,ChatGPT 在应用动量时犯致命错误。
2025-04-08
需要优化工作规程文件,使用什么AI工具比较好
以下是一些可用于优化工作规程文件的 AI 工具及相关建议: 业务流程优化方面: 流程挖掘软件是一种常用的 AI 工具,它可以自动分析业务流程,并识别改进点。您需要先利用该工具分析当前的业务流程,收集关于业务流程的数据,如任务执行时间、顺序、参与者等,然后对收集到的数据进行分析,自动识别流程中的瓶颈、重复步骤或效率低下的环节。基于分析结果重新设计和优化流程,并将新设计的流程实施到日常业务中,持续监控其表现,根据实施结果和员工反馈进一步调整和优化流程。 文章润色方面: 以下是一些常见的文章润色 AI 工具: 1. Wordvice AI:集校对、改写转述和翻译等功能于一体的 AI 写作助手,基于大型语言模型提供全面的英文论文润色服务。 2. ChatGPT:由 OpenAI 开发的大型语言模型,可用于学生和写作人员的多方面写作辅助。 3. Quillbot:人工智能文本摘要和改写工具,可用于快速筛选和改写文献资料。 4. HyperWrite:基于 AI 的写作助手和大纲生成器,可帮助用户在写作前进行头脑风暴和大纲规划。 5. Wordtune:AI 驱动的文本改写和润色工具,可以帮助用户优化文章的语言表达。 6. Smodin:提供 AI 驱动的论文撰写功能,可以根据输入生成符合要求的学术论文。 总的来说,这些 AI 工具涵盖了文章润色的各个环节,包括校对、改写、大纲生成、内容生成等,可以有效提高写作效率和质量。科研人员和学生可以根据自身需求选择合适的工具进行使用。 创建工作流文件方面: 可以使用 Cursor 和 MCP 来创建工作流文件。首先创建一个名为 workflow.md 的文件,写入明确的指令,避免模糊表达,任务越细分越好。然后在对话窗口中告诉 AI 各个文件的对应关系。在使用过程中,Cursor 会请求您允许使用 MCP,记得点“同意”,经过多轮同意后,它会开始执行生成页面。需要注意的是,必须要用 claude sonnet 3.7,3.5 版本实测不行。
2025-04-01
AI 优化简历
以下是一些可以用于优化简历的 AI 工具: 1. ResumeMatcher:这是一个 AI 驱动的开源简历优化工具。它能提供智能关键词匹配、深入分析见解,提升简历通过 ATS 筛选的几率。采用 FastEmbed 计算简历与职位匹配度,结合 textacy 提取核心术语,精准优化简历内容。链接: 2. 超级简历优化助手:帮助用户优化简历提高求职成功率。超级简历优化助手分析简历内容并提供优化建议。 3. Kickresume 的 AI 简历写作器:使用 OpenAI 的 GPT4 语言模型自动生成简历,为简历摘要、工作经验和教育等专业部分编写内容,并在整个文档中保持一致的语调。 4. Rezi:是一个受到超过 200 万用户信任的领先 AI 简历构建平台。使用先进的 AI 技术自动化创建可雇佣简历的每个方面——写作、编辑、格式化和优化。 5. Huntr 的 AI 简历构建器:提供免费的简历模板,以及 AI 生成的总结/技能/成就生成器和 AI 驱动的简历工作匹配。 更多 AI 简历产品,还可以查看这里:https://www.waytoagi.com/category/79 。您可以根据自己的需要选择最适合您的工具。
2025-03-30
高级提示词
以下是关于高级提示词的详细介绍: 在生成式人工智能模型中,提示词是用户输入用于引导模型产生期望输出的文本。提示词通常包含指令、问题、输入数据和示例,为从 AI 模型得到期望回应,必须包含指令或问题,其他元素可选。 在 LLM 中,基本提示词可简单到直接提问或提供特定任务指令,高级提示词则涉及更复杂结构,如“思维链”提示词,引导模型遵循逻辑推理过程得出答案。 以 ChatGPT4 为例,更高级的提示词可能在提问基础上包括关于模型应如何回答问题的指令,例如询问如何撰写大学入学申请论文时,同时提出希望在答案中听到的不同方面建议。 在图像生成方面,基本提示可以是简单的单词、短语或表情符号,而更高级的提示可以包括一个或多个图像 URL、多个文本短语以及一个或多个参数。图像 URL 始终出现在提示前面,精心编写的提示文本有助于生成令人惊叹的图像,参数位于提示符末尾,可改变图像的生成方式。
2025-04-01
提示词设计方法,请从初级到高级一步步进行说明讲解
以下是从初级到高级的提示词设计方法的讲解: 初级阶段: 在初级阶段,重点是明确表达您的需求和期望。例如,清晰地描述任务、问题或所需的输出类型。 中级阶段: 随着经验的积累,可以尝试更详细和具体的描述。包括提供更多的背景信息、限制条件和关键要点,以引导模型生成更符合期望的结果。 高级阶段: 1. 自动提示词工程(APE): 提示词生成:利用 LLM 针对特定任务产生多种提示词,借助其语言数据库和上下文理解。 提示词评分:根据清晰度、特定性和推动期望结果的潜力等关键指标对提示词进行严格评估。 完善和迭代:根据评分调整和优化提示词,增强其与任务要求的一致性,通过持续改进提高提示词质量。 2. 样例驱动的渐进式引导: 把相关的样例文件与提示词同时发送给模型,让模型自行总结所需结果。 经过多次调试和根据测试 bug 微调提示词,以确保稳定运行。 3. 格式选择: 对于刚入门的朋友,推荐使用直观易懂的 LangGPT 结构化提示词,以便快速上手。 对于进阶用户,一方面可以继续使用 LangGPT 结构化提示词,另一方面如有精力和好奇心,可尝试 Lisp 伪代码格式,有助于精炼提示词和提升对措辞理解、概念认知的能力。 需要注意的是,部署 APE 并非没有挑战,可能需要大量计算资源和建立有效评分指标,初始设置也可能需要精心策划的种子提示词集来有效指导生成过程。重要的是提示词的内容要与 AI 的“理解机制”相契合,而非外在形式。
2025-03-18
推荐一个可以快速搭建的高级个人智能体
以下为您推荐一个可以快速搭建的高级个人智能体: 五津的DeepSeek+扣子:输入人设等信息创建智能体,放上创建的工作流。配置完成后可测试,但工作流中【所有视频片段拼接】节点的api_token不能直接发布,可作为工作流输入让用户购买后使用。 阿里云百炼平台的Deepseek R1模型:无需部署直接使用,有丰富的模型广场和大量免费额度,使用需解锁和授权,实名认证后可通过模型广场的API调用示例连接Chat Box,新建智能体应用可选择模型并调整参数,还能开启互联网搜索。 小众打卡地智能体:输入旅游目的地城市可推荐3个小众打卡地小红书类文案及配图,其搭建思路包括录入小红书文案参考知识库、通过文本模型组成搜索词搜索并提取相关url、滤除部分网站、提取小众地点输出及图片搜索等。
2025-03-11
请起草一份小白学习AI辅助修图的入门到精通的教程,提供学习大纲,包括从基本玩法到高级卡bug玩法,常见红海赛道,常见问题,注意事项,常见误区,避坑指南等等
以下是为您提供的小白学习 AI 辅助修图从入门到精通的教程大纲: 一、基础知识与基本玩法 1. 了解 AI 辅助修图的概念和基本原理。 2. 熟悉常见的 AI 修图工具和软件。 二、常见问题与注意事项 1. 风格局限性:如全是二次元风格,缺少适合特定需求的风格。 2. 图像叙事性不足:画出来的多为美少女看镜头,缺乏叙事内容。 3. 素材局限性:已有素材单一,图生图可行性低,训练泛化性差。 三、常见误区与避坑指南 1. 避免盲目依赖初始的 Embedding、CKPT 等方法,不断尝试和改进。 2. 注意训练集中人物朝向固定等问题,采取相应处理措施,如镜像处理。 四、从入门到精通的进阶玩法 1. 掌握不同的训练方法,如 Lora 等,以获得更理想的效果。 2. 学会引导 AI 画出具有前景后景区分明显的图像,如制作引导图。 五、高级卡 bug 玩法 探索一些非常规但有效的技巧和方法,以突破常规限制,实现更出色的修图效果。但需注意,此部分玩法可能存在一定风险和不确定性。 六、常见红海赛道 分析当前 AI 辅助修图在不同领域的竞争激烈程度和应用热点。 在学习过程中,还需了解以下 AI 相关的技术原理和概念: 1. 生成式 AI 生成的内容称为 AIGC。 2. 相关技术名词: AI 即人工智能。 机器学习包括监督学习、无监督学习、强化学习,监督学习有标签,无监督学习无标签,强化学习从反馈中学习。 深度学习参照人脑神经网络,神经网络可用于多种学习方式。 生成式 AI 可生成多种内容形式。 LLM 为大语言模型,不同模型有不同擅长的任务。 3. 技术里程碑:2017 年 6 月谷歌团队发表的《Attention is All You Need》提出了 Transformer 模型。
2025-03-05
请起草一份小白学习AI应用(包括app和网站)的入门到精通的教程,提供学习大纲,包括从基本玩法到高级卡bug玩法,常见红海赛道,常见问题,注意事项,常见误区,避坑指南等等
以下是一份小白学习 AI 应用(包括 app 和网站)的入门到精通的教程,涵盖学习大纲、常见问题等方面: 一、学习大纲 1. 了解 AI 基本概念 阅读相关资料,熟悉 AI 的术语和基础概念,包括人工智能的定义、主要分支(机器学习、深度学习、自然语言处理等)及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前应用和未来发展趋势。 2. 开始 AI 学习之旅 参考「」中的初学者课程,了解生成式 AI 等基础知识,推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)按照自己的节奏学习,并争取获得证书。 3. 选择感兴趣的模块深入学习 AI 领域广泛,包括图像、音乐、视频等,根据自身兴趣选择特定模块深入学习。 掌握提示词技巧,因其上手容易且实用。 4. 实践和尝试 理论学习后进行实践,巩固知识,尝试使用各种产品创作作品。 分享实践后的经验和成果。 5. 体验 AI 产品 与 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人互动,了解其工作原理和交互方式,获得实际应用体验。 二、常见红海赛道 目前,AI 在自然语言处理、图像识别、智能推荐等领域竞争较为激烈。 三、常见问题 1. 对复杂应用的需求理解不准确,导致产品出错。 2. 技术组件的配置和整合可能遇到困难。 四、注意事项 1. 注重基础知识的学习,打牢根基。 2. 实践过程中要耐心,遇到问题多尝试解决。 五、常见误区 1. 认为 AI 学习短期内就能精通,忽略了长期积累和实践的重要性。 2. 过度依赖现成的模型和工具,缺乏对原理的深入理解。 六、避坑指南 1. 在选择学习资源时,要注意其权威性和适用性。 2. 开发 AI 应用时,要充分考虑用户需求和实际场景,避免盲目跟风。 希望以上内容对您有所帮助,祝您在 AI 学习的道路上取得成功!
2025-03-05
请起草一份小白学习AI视频制作的入门到精通的教程,提供学习大纲,包括从基本玩法到高级卡bug玩法,常见红海赛道,常见问题,注意事项,常见误区,避坑指南等等
以下是一份小白学习 AI 视频制作从入门到精通的教程大纲: 一、基础玩法 1. 项目规划 确定短片主题和目标观众。 制定详细的制作计划。 2. 剧本创作 编写故事脚本。 设计角色和场景以及创意。 3. 分镜头脚本 根据脚本制作分镜头脚本,确定每个镜头的画面和动作。 4. 资源准备 准备动画制作所需的素材,包括背景、角色和音效。 5. 画面图片制作 利用 AI 出图工具,比如通过 ChatGPT、MJ、SD 等工具快速生成高质量的图片。 6. 视频制作 利用 AI 工具制作动画,通过 RUNWAY、Luma、Dreamina 等平台快速生成高质量的动画。 7. 后期剪辑 添加音效、配音和字幕,进行最终的剪辑和合成。 8. 发布和推广 将完成的动画短片发布到各大平台,并进行推广和宣传。 二、高级玩法 1. 写提示词 掌握有效的提示词撰写技巧,以获得更符合需求的生成结果。 2. 导入图片用 Mini Max、模型的首尾帧玩法等操作实现一镜到底效果。 3. 利用不同模型进行创作,如海螺无限生成。 4. 反复修改提示词以优化生成效果。 三、常见红海赛道 1. 创意广告类视频。 2. 短视频故事类。 四、常见问题 1. 生成效果不符合预期。 2. 工具操作不熟练。 3. 资源获取困难。 五、注意事项 1. 注重版权问题,合法使用素材和工具。 2. 不断学习和更新知识,跟上 AI 技术发展。 六、常见误区 1. 过度依赖 AI,忽略自身创意和审美。 2. 忽视视频的逻辑性和连贯性。 七、避坑指南 1. 提前了解不同工具的收费模式,避免不必要的费用支出。 2. 多参考优秀案例,避免重复常见错误。 希望这份大纲能帮助您在 AI 视频制作的学习道路上不断进步!
2025-03-04