Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

问答方式如何使用好大模型

Answer

以下是关于如何使用好大模型的一些指导:

  1. 本地部署资讯问答机器人:
    • 加载所需的库和模块,如用于解析 RSS 订阅源的 feedparse,用于在 Python 程序中跑大模型的 ollama(使用前确保 ollama 服务已开启并下载好模型)。
    • 从订阅源获取内容,可通过指定的 RSS 订阅 url 提取,如需多个 url 稍作改动即可。然后用专门的文本拆分器将长文本拆分成小块,并附带相关元数据,最终合并成列表用于后续处理。
    • 为文档内容生成向量,使用文本向量模型 bge-m3,从 hf 下载好模型放置在指定路径,通过函数利用 FAISS 创建高效向量存储。
    • Ollama 支持多种大型语言模型,包括通义千问、Llama 2、Mistral 和 Gemma 等,适用于不同场景。易于使用,适用于 macOS、Windows 和 Linux 系统,支持 cpu 和 gpu。提供模型库,用户可从中下载不同模型,还支持自定义模型,如修改温度参数等,同时提供 REST API 用于运行和管理模型及与其他应用集成,社区贡献丰富。需先安装,可通过 https://ollama.com/download/ 下载,安装后确保后台服务已启动。
  2. 编写清晰的说明:
    • 在 OpenAI 官方说明文档中提到的“官方最佳实践”为用户提供了若干策略。
    • 策略一是编写清晰的说明,在询问中包含详细信息,多说一些内容,多提供一些信息,能有效提高大模型回复的质量和丰富性。通过多个具体例子展示了提供更多细节能得到更符合预期的回答。
Content generated by AI large model, please carefully verify (powered by aily)

References

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

加载所需的库和模块。其中,feedparse用于解析RSS订阅源ollama用于在python程序中跑大模型,使用前请确保ollama服务已经开启并下载好模型|从订阅源获取内容下面函数用于从指定的RSS订阅url提取内容,这里只是给了一个url,如果需要接收多个url,只要稍微改动即可。然后,通过一个专门的文本拆分器将长文本拆分成较小的块,并附带相关的元数据如标题、发布日期和链接。最终,这些文档被合并成一个列表并返回,可用于进一步的数据处理或信息提取任务。|为文档内容生成向量这里,我们使用文本向量模型bge-m3。https://huggingface.co/BAAI/bge-m3bge-m3是智源研究院发布的新一代通用向量模型,它具有以下特点:支持超过100种语言的语义表示及检索任务,多语言、跨语言能力全面领先(M ulti-Lingual)最高支持8192长度的输入文本,高效实现句子、段落、篇章、文档等不同粒度的检索任务(M ulti-Granularity)同时集成了稠密检索、稀疏检索、多向量检索三大能力,一站式支撑不同语义检索场景(M ulti-Functionality)从hf下载好模型之后,假设放置在某个路径/path/to/bge-m3,通过下面函数,利用FAISS创建一个高效的向量存储。|实现RAG

本地部署资讯问答机器人:Langchain+Ollama+RSSHub 实现 RAG

1.支持多种大型语言模型:Ollama支持包括通义千问、Llama 2、Mistral和Gemma等在内的多种大型语言模型,这些模型可用于不同的应用场景。2.易于使用:Ollama旨在使用户能够轻松地在本地环境中启动和运行大模型,适用于macOS、Windows和Linux系统,同时支持cpu和gpu。3.模型库:Ollama提供了一个模型库,用户可以从中下载不同的模型。这些模型有不同的参数和大小,以满足不同的需求和硬件条件。Ollama支持的模型库可以通过https://ollama.com/library进行查找。4.自定义模型:用户可以通过简单的步骤自定义模型,例如修改模型的温度参数来调整创造性和连贯性,或者设置特定的系统消息。5.API和集成:Ollama还提供了REST API,用于运行和管理模型,以及与其他应用程序的集成选项。6.社区贡献:Ollama社区贡献丰富,包括多种集成插件和界面,如Web和桌面应用、Telegram机器人、Obsidian插件等。7.总的来说,Ollama是一个为了方便用户在本地运行和管理大型语言模型而设计的框架,具有良好的可扩展性和多样的使用场景。后面在捏Bot的过程中需要使用Ollama,我们需要先安装,访问以下链接进行下载安装。https://ollama.com/download/安装完之后,确保ollama后台服务已启动(在mac上启动ollama应用程序即可,在linux上可以通过ollama serve启动)。我们可以通过ollama list进行确认,当我们还没下载模型的时候,正常会显示空:可以通过ollama命令下载模型,目前,我下载了4个模型:几个模型简介如下:

小七姐:官方最佳 Prompt 实践的六个方法

作者:小七姐可以在以下地址关注她:[小七姐的prompt学习社群](https://t.zsxq.com/15KhQ0RE7)[heading1]01学习地图|编写清晰的说明-多说两句,提供细节[content]在OpenAI官方的说明文档(Documentation-[GPT best practices](https://platform.openai.com/docs/guides/gpt-best-practices/gpt-best-practices)),也就是我们常常提到的“官方最佳实践”中,为用户提供了若干项策略,以帮助用户更好的使用ChatGPT。[heading2]策略一:编写清晰的说明[content]在询问中包含详细信息,以获得更多相关答复。这是因为,大模型不是我们肚子里的蛔虫,它无法在有限的信息中“猜测”我们的意图,所以,在问问题的时候,不要惜字如金,多说一些内容,多提供一些信息,这样可以很有效的提高大模型回复的质量和丰富性。我们来看一个例子:当我们想要大模型为我们提供一些思维模型时,本能的问法可能是:“给我列几个思维模型”。于是很常见下面这样的对话:当我们愿意给出更多信息,比如我们为什么需要这个模型,希望ChatGPT列举三个模型,以及是否有我们已知的模型作为参考时,ChatGPT可以提供更加符合我们预期的回答:我们再来看一个例子,假设我们想请ChatGPT帮助我们记忆一个比较抽象的概念,我们可能会脱口而出这样的问题:但如果我们停下来思考一下,深想一步,提供更多细节,就能得到更符合期望的回答了:最后,我们想通过ChatGPT来了解提示词,这是一个坏例子:让我们给出特定的情景和进一步思考的问题:

Others are asking
想创建一个对话问答形式的课程智能体
以下是创建一个对话问答形式的课程智能体的相关内容: 一、创建智能体 1. 知识库 手动清洗数据:本次创建知识库使用手动清洗数据,上节课程是自动清洗数据,自动清洗数据可能会出现数据不准的情况。 在线知识库:点击创建知识库,创建一个画小二课程的 FAQ 知识库。飞书在线文档中每个问题和答案以分割,选择飞书文档、自定义的自定义,输入后可编辑修改和删除,添加 Bot 后可在调试区测试效果。 本地文档:本地 word 文件,注意拆分内容以提高训练数据准确度。画小二 80 节课程分为 11 个章节,不能一股脑全部放进去训练,应先将 11 章的大章节名称内容放进来,章节内详细内容按固定方式人工标注和处理,然后选择创建知识库自定义清洗数据。 2. 发布应用:点击发布,确保在 Bot 商店中能够搜到,否则获取不到 API。 二、智谱 BigModel 共学营活动分享 活动内容包括使用 BigModel 搭建智能体并接入微信机器人,过程为将调试好的智能体机器人拉入微信群,由老师提问,机器人回答,挑选出色回答整理成问卷,群成员投票,根据得票数确定奖项。一等奖得主分享了对活动的理解和实践,包括从题出发的分析,认为考验机器人对问题的理解和回答准确性,真实对话场景一般为完整句子回复,根据回答真实性和有趣程度评分,可使用弱智吧问题测试提示词生成效果。 三、名字写对联教学——优秀创作者奖,百宝箱智能体 1. 智能体类型的选择:建议选择工作流的对话模式,支持工作流编排和携带历史对话记录,创建后切换为对话模式,注意在调整工作流节点前切换,否则会清空重置。 2. 确认分支情况:根据需求分析有两个特定分支(根据名字和祝福写对联、根据幸运数字写对联)和一个默认分支。 3. 用户意图识别:通过理解用户意图走不同分支,注意将意图介绍写清楚准确。 4. 幸运数字分支:用代码分支获取用户输入数字,匹配知识库并做赏析,代码中有容错机制。 5. 名字写祝福:根据用户输入的名字和祝福信息,提示词生成对应对联并输出,主要是提示词调试。 6. 通用兜底回复:在用户不符合前两个意图时进行友好回复,匹配知识库,结合匹配结果、历史记录和当前输入输出符合对话内容的回复。 7. 知识库:使用大模型生成 100 对对联,好看、经典、有意义。
2025-04-09
专门解决ai需求的问答
以下是关于专门解决 AI 需求的问答的相关内容: 关于我是谁: 我是 WaytoAGI 专属问答机器人,基于 Aily 和云雀大模型。Aily 是飞书团队旗下的企业级 AI 应用开发平台,提供简单、安全且高效的环境,帮助企业构建和发布 AI 应用。云雀是字节跳动研发的语言模型,能通过自然语言交互完成互动对话、信息获取、协助创作等任务。 使用方法: 1. 在 WaytoAGI 飞书知识库首页找到加入飞书群的链接(最新二维码在知识库首页),加入后直接@机器人。 2. 在 WaytoAGI.com 的网站首页直接输入问题即可得到回答。 做问答机器人的原因: 1. 知识库内容庞大,新用户难以快速找到所需内容。 2. 传统搜索基于关键词及相关性,无法准确理解语义。 3. 需要用更先进的 RAG 技术解决。 4. 在群中提供快速检索信息的便捷方式。 AI 商用级问答场景中让回答更准确: 要优化幻觉问题和提高准确性,需了解从“问题输入”到“得到回复”的过程,针对每个环节逐个调优。RAG(检索增强生成)由检索器和生成器组成,检索器从外部知识中找到相关信息,生成器利用这些信息制作精确连贯的答案,通过检索模式为大语言模型生成提供更多信息,使答案更符合要求。 向量:可把向量想象成空间中的点位,每个词或短语对应一个点,系统通过比较点的距离快速找到语义接近的词语或信息。 Agentic AI 中的问答: 对于最简单的常识性问答,可在 CursorChat 中输入问题得到答案,其相对细节的优势是可在同一界面调用 OpenAI、Anthropic 及本机私有 AI 进行问答。此外,Cursor 作为编辑器,可方便收集沉淀问答结果为复用文档,在进行文本相关任务时还有奇妙用法,如翻译中文博客。
2025-03-26
数据问答的最佳实践
以下是关于数据问答最佳实践的相关内容: Databricks: Databricks 作为大数据领域的领先服务商,在 RAG 设计上有自身特点和优势。用户输入问题后,从处理好的文本向量索引获取相关信息,结合提示词工程生成回答。上半部分 Unstructured Data pipeline 采用主流 RAG 方法,下半部分 Structured Data Pipeline 是其特征工程处理流程,也是最大特点。Databricks 从专业大数据角度出发,在准确度较高的数据存储中进行额外检索,发挥在 Real Time Data Serving 上的优势。可见其在 GenAI 时代将强大的 Lakehouse 数据处理能力与生成式 AI 技术深度融合,构建一体化解决方案。 OpenAI: 从 OpenAI Demo day 的演讲整理所得,在提升 RAG 准确率的成功案例中,OpenAI 团队从 45%的准确率开始,尝试多种方法。包括假设性文档嵌入(HyDE)和精调嵌入等,但效果不理想。通过尝试不同大小块的信息和嵌入不同内容部分,准确率提升到 65%。通过 Reranking 和对不同类别问题特别处理,进一步提升到 85%。最终,结合提示工程、查询扩展等方法,达到 98%的准确率。团队强调模型精调和 RAG 结合使用的强大潜力,仅通过简单的模型精调和提示工程就接近行业领先水平。 Loop: 具有环状结构的 RAG Flow 是 Modular RAG 的重要特点,检索和推理步骤相互影响,通常包括一个 Judge 模块控制流程,具体可分为迭代、递归和主动检索三种。 迭代检索:对于一些需要大量知识的复杂问题,可采用迭代方式进行 RAG,如 ITERRETGEN。每次迭代利用前一次迭代的模型输出作为特定上下文帮助检索更相关知识,通过预设迭代次数判断终止。 递归检索:特点是明显依赖上一步并不断深入检索,通常有判断机制作为出口,需搭配 Query Transformation,每次检索依赖新改写的 Query。典型实现如 ToC,从初始问题通过递归执行 RAC 逐步插入子节点到澄清树中,达到最大数量有效节点或最大深度时结束,然后收集所有有效节点生成全面长文本答案回答初始问题。
2025-03-17
如何搭建一个你这样的知识库智能问答机器人,有相关的流程教程吗?
搭建一个知识库智能问答机器人通常包括以下流程: 1. 基于 RAG 机制: RAG 机制全称为“检索增强生成”,是一种结合检索和生成的自然语言处理技术。它先从大型数据集中检索与问题相关的信息,再利用这些信息生成回答。 要实现知识库问答功能,需创建包含大量文章和资料的知识库,例如有关 AI 启蒙和信息来源的知识库,并通过手工录入方式上传文章内容。 2. 利用 Coze 搭建: 收集知识:确认知识库支持的数据类型,通过企业或个人沉淀的 Word、PDF 等文档、云文档(通过链接访问)、互联网公开内容(可安装 Coze 提供的插件采集)等方式收集。 创建知识库。 创建数据库用以存储每次的问答。 创建工作流: 思考整个流程,包括用户输入问题、大模型通过知识库搜索答案、大模型根据知识库内容生成答案、数据库存储用户问题和答案、将答案展示给用户。 Start 节点:每个工作流默认都有的节点,是工作流的开始,可定义输入变量,如 question,由 Bot 从外部获取信息传递过来。 知识库节点:输入为用户的查询 Query,输出为从知识库中查询出来的匹配片段。注意查询策略,如混合查询、语义查询、全文索引等概念。 变量节点:具有设置变量给 Bot 和从 Bot 中获取变量的能力。 编写 Bot 的提示词。 预览调试与发布。 海外官方文档:https://www.coze.com/docs/zh_cn/knowledge.html 国内官方文档:https://www.coze.cn/docs/guides/use_knowledge
2025-03-14
有哪些好用的搭建知识库然后进行问答的 AI 工具?
以下是一些好用的搭建知识库然后进行问答的 AI 工具: 1. DIN: 搭建 OneAPI,用于汇聚整合多种大模型接口。 搭建 FastGpt,这是一个知识库问答系统,可放入知识文件,并接入大模型作为分析知识库的大脑,它有问答界面。 搭建 chatgptonwechat,将知识库问答系统接入微信,但建议先用小号以防封禁风险。 2. Coze: 知识库问答是其最基础的功能,利用了大模型的 RAG 机制(检索增强生成)。 RAG 机制先从大型数据集中检索与问题相关的信息,再利用这些信息生成回答。 实现知识库问答功能需创建包含大量 AI 相关文章和资料的知识库,通过手工录入上传内容。 在设计 Bot 时添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以更好地结合知识库返回的内容进行回答。
2025-03-05
有哪些好用的搭建知识库然后进行问答的 AI 工具?
以下是一些好用的搭建知识库然后进行问答的 AI 工具: 1. DIN: 搭建步骤: 搭建 OneAPI(https://github.com/songquanpeng/oneapi),用于汇聚整合多种大模型接口。 搭建 FastGpt(https://fastgpt.in/),这是一个知识库问答系统,将知识文件放入,并接入大模型作为分析知识库的大脑,它有问答界面。 搭建 chatgptonwechat(https://github.com/zhayujie/chatgptonwechat),接入微信,配置 FastGpt 把知识库问答系统接入到微信,建议先用小号以防封禁风险。 2. Coze: 知识库问答利用了大模型的 RAG 机制,全称为“检索增强生成”(RetrievalAugmented Generation)。 RAG 机制先从大型数据集中检索与问题相关的信息,再使用这些信息生成回答。 实现知识库问答功能,需创建包含大量 AI 相关文章和资料的知识库,通过手工录入上传文章内容。在设计 Bot 时,添加知识库,并设置合适的搜索策略、最大召回数量和最小匹配度,以结合知识库返回的内容进行回答。
2025-03-05
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14
我想找一个可以把服装图片用ai的方式直接‘穿’在另一张图片的模特身上
以下是两种可以将服装图片用 AI 的方式“穿”在另一张图片的模特身上的方法: 方法一:使用 ComfyUI GeminiAPI 1. 在 Google 的 AI Studio 申请一个 API key(需要网络环境),有免费的额度,网址为:https://aistudio.google.com/apikey?hl=zhcn 。 2. 安装相关依赖,根据使用的情况选择手动安装(如果使用 ComfyUI 便携版或自己的 Python 环境)或通过 ComfyUI Manager 安装。 手动安装:安装相关依赖。 通过 ComfyUI Manager 安装:在 ComfyUI 中安装并打开 ComfyUI Manager,在 Manager 中搜索“Gemini API”,然后点击安装按钮。 方法二:使用【SD】 1. 进行 SAM 模型分割:来到图生图中,提示词输入“蓝色毛衣”,蒙版区域内容处理改为“填充”,尺寸改为和图像一致,重绘幅度为 1。 2. 处理可能出现的问题:如蒙版区域较大导致的衔接问题,可以通过降低重绘幅度或添加一个 openpose 来控制人物的身体,得到正确的姿势。 3. 选择合适的重绘功能:除了使用图生图的局部重绘,还可以使用 controlnet 的局部重绘功能,控制模式选择“更注重提示词”,具体效果可自行试验选择。
2025-04-09
我想了解AI的应用方式
AI 的应用方式广泛且多样,主要包括以下几个方面: 1. 医疗保健: 医学影像分析,辅助诊断疾病。 药物研发,加速研发过程。 个性化医疗,提供个性化治疗方案。 机器人辅助手术,提高手术精度和安全性。 2. 金融服务: 风控和反欺诈,降低金融机构风险。 信用评估,辅助贷款决策。 投资分析,帮助投资者做出明智决策。 客户服务,提供 24/7 服务并回答常见问题。 3. 零售和电子商务: 产品推荐,根据客户数据推荐感兴趣的产品。 搜索和个性化,改善搜索结果和提供个性化购物体验。 动态定价,根据市场需求调整产品价格。 聊天机器人,回答客户问题和解决问题。 4. 制造业: 预测性维护,预测机器故障避免停机。 质量控制,检测产品缺陷提高质量。 供应链管理,优化供应链提高效率和降低成本。 机器人自动化,控制工业机器人提高生产效率。 5. 交通运输: 自动驾驶,提高交通安全性和效率。 交通管理,优化交通信号灯和流量缓解拥堵。 物流和配送,优化路线和配送计划降低运输成本。 无人机送货,将货物快速送达偏远地区。 6. 其他应用场景: 教育,提供个性化学习体验。 农业,分析农田数据提高农作物产量和质量。 娱乐,开发虚拟现实和增强现实体验。 能源,优化能源使用提高能源效率。 此外,还有众多具体的 AI 应用产品,如辅助创作与学习方面的 AI 智能写作助手、语言学习助手等;推荐与规划方面的图像识别商品推荐、旅游行程规划器等;监控与预警方面的宠物健康监测设备、家居安全监控系统等;优化与管理方面的办公自动化工具、物流路径优化工具等;销售与交易方面的艺术作品生成器、汽车销售平台等。总之,AI 的应用场景还在不断扩展,未来将对我们的生活产生更加深远的影响。
2025-04-09
ai变现方式有哪些
以下是一些常见的 AI 变现方式: 1. 电商方面: 利用 AI 制作服装,如 AI 小绿裙,单价 239 卖了 1160 多份,几个月共卖 27 万。可使用 sd、mj 等工具制作,新手也可用 mewxai 或幻火。 用 AI 定制萌娃的头像,单价 19.9,卖了 2675 份,执行力强的一个月能有 2000 3000 的收入。 2. 摊位活动: 乐易科学院:通过 AI 技术结合多种能量形式从多方面讲解国学和传统文化,进行批八字、调风水、性格色彩分析等。 AIGC 策划程序美术(3AI 简称 3A 游戏)应用独立游戏开发。 AI 人像摄影绘画。 B2B AI 营销与 AI 落地项目快速落地,涵盖 AI 训练、美国独立站搭建、Google seo 与 AI 结合等,并开发了多种 AI 工具,如帮 HR 筛选简历的工具、行业新闻 AI 生成与自动推送的工作流、小红书 AI 生成的工具、Newsletter AI 生成的工具等。 3. 个人方面: 在公司给自己贴 AI 大神标签。 在社交网络进行分享,扩大影响力,承接项目开发。 二创方向,如增加画板节点,结合公司 Logo 生成一系列公司主题的产品邮票,承接类似需求,扩充工作流以适应更复杂的业务,修改提示词调整生图内容方向。
2025-04-09
我们是搜索团队的产品经理,团队定位倾向于“对于插件的建设与调用”定位,现在要做AI相关的产品规划,请以通俗易懂的方式对以下问题做出回答 1、请通过流程图的方式,介绍【插件/工具】能力在大模型生态架构中的环节、定位、实现流程是什么 2、调研下对于我们搜索团队而言,插件应该做什么,可以做什么 3、思考对于大模型来说,有哪些(通用或垂类)的模块/功能/插件是无法绕开的,或高频使用的,作为我们团队后续争取的发力点(如搜索推荐对于传统综合搜索结果页)
以下是为您提供的关于 AI 相关产品规划的回答: 一、插件/工具能力在大模型生态架构中的环节、定位、实现流程 从 2023 年 3 月份 OpenAI 宣布插件计划开始,到 5 月份上线,其中包括联网、代码、画图三个插件。其实现流程大致为: 1. 经过对模型的微调,检测何时需要调用函数(取决于用户的输入)。 2. 使用符合函数签名的 JSON 进行响应。 3. 在接口层面声明可调用的工具。 4. 使用函数和用户输入调用模型。 5. 使用模型响应调用 API。 6. 将响应发送回模型进行汇总。 二、对于搜索团队,插件可以做和应该做的事 目前没有直接针对搜索团队插件具体可做和应做事项的明确内容,但可以参考 OpenAI 的插件计划,例如开发与搜索相关的特定功能插件,或者探索如何将现有的搜索推荐功能与大模型更好地结合。 三、对于大模型无法绕开或高频使用的模块/功能/插件 目前没有直接指出对于大模型无法绕开或高频使用的具体模块、功能或插件。但从相关信息中可以推测,例如与数据获取和处理相关的插件(如联网)、与技术开发相关的插件(如代码)以及与内容生成相关的插件(如画图)可能是较为重要和高频使用的。对于搜索团队来说,可以考虑在这些方向上寻找发力点,结合搜索推荐等传统功能,开发出更具竞争力的插件。
2025-04-08
想进入AI 这个赛道,有啥搞钱方式
以下是进入 AI 赛道的一些搞钱方式: 1. 参加“城市狂想”文旅短视频创意大赛: 该大赛由百度百家号主办,国内最大 AI 开源社区通往 AGI 之路协办,于 8 月 27 日正式开启。 无论个人、团体还是机构,AI 视频创作者或普通自媒体创作者,都可选择适合的分赛道参与,奖金池达 60000 元。 优质作品有机会获得单项 10000 元奖金及百+助推,还有机会获得地方政府/媒体扩圈传播,百度 APP 城市频道商业 banner 推荐。 针对零基础/技术欠缺的朋友,下周将在社区开设线上直播课程,由行业内顶尖的 AI 艺术家手把手教学如何制作 AI 文旅宣传片。 报名方式: 第一步,报名,填写右侧报名链接,本赛道为实名制,未报名作者不参与评奖。https://www.wjx.top/vm/w2oCF2q.aspx 第二步,投稿,在百家号创作者后台/百度 APP,带话题城市狂想发布符合活动要求的视频内容。(允许同一作者投稿多个参赛作品,或参与多部参赛作品制作。) 第三步,提交作品,填写右侧提交作品链接。https://www.wjx.top/vm/wvfqf2f.aspx 2. 运营 AI 创作账号: 变现方式:分为通过官方蒲公英平台接单和主流媒体约稿。蒲公英平台会收取 10%手续费,行业 AI 视频价格一分钟约 2.5 万到 4 万,主流媒体约稿稿费可能较低但有背书作用。 平台选择:推荐小红书和 B 站。小红书从种草平台逐渐变为知识社区,其知识属性适合 AI 创作者,视频号也值得做但经验分享较少。 内容形式:小红书能发视频就发视频,小红书的视频 UI 界面改版且推送机制变化,后续可能重点发力视频。 账号赛道:起号前期可用妖魔鬼怪类内容,但后期要扭转账号标签,此类账号变现方式窄,做账号要有价值,不能割韭菜,要把 AI 生态圈做大。 账号搭建与运营: 头像设计:要有记忆点和视觉冲击力,能让人记住。 名称选择:要独特,能体现个人或内容特点。 简介撰写:要有哲理或引人思考的话语,能吸引用户。 封面统一:要统一且具有账号属性,体现商业化。 追热点策略:账号初期应追热点,如对热门内容进行分析和跟风创作。 获取信任:做 IP 最终要赢得用户信任,用户信任能增强其对推荐内容的关注度。 3. 运营 AI 视频号: 保持日更:起号阶段至少两天一更,每天半小时就能完成 20 秒的简单内容制作,持续更新让平台看到创作者的诚意。 选择赛道:资讯类不做,选择 AI 视觉冲击力、利他的内容,有 AI 基础可做教程。 寻找对标:起号阶段要找 10 个对标的账号,参考其内容和模式。 克服心理:出镜做 IP,不要有容貌焦虑,长得丑或有特点都能有流量,要克服不敢出镜的心理。 蹭取热点:蹭经过平台验证有流量的热点,如黄油小熊,根据热点抄学制作,同时注意热点的舆论导向和合规性。 其他经验: 获取视频教程:可在 vtwoagi.com 网站的飞书知识库中获取 AI 视频创作教程。 应对抄袭方法:在抄袭者评论区留言指出,或找朋友点赞将评论顶上去,为自己账号引流。 特效视频长度:建议控制在 1 分钟内,不建议做费时费力的剧情或故事片。 账号限流处理:视频号限流建议重新起号,小红书限流可日更 10 天尝试。 内容商业价值:内容有商业价值的标准是甲方或品牌愿意投钱,如靠播放量或带货分成有收入。 封面获取渠道:可从堆友、吉梦、小红书等获取封面素材。 蹭取平台热点:做哪个平台就蹭哪个平台的热点。 寻找对标账号:在小红书创作者平台的成长榜样中可找到对标账号。 账号标签查看:在小红书创作者后台可查看账号是否被打上标签。 内容发布时间:8 点到 10 点、2 点到下午 5 点、7 点到 8 点较为合适。
2025-03-28
作为AI小白,如何开始学习AI?有哪些资源和方式推荐?
对于 AI 小白,以下是开始学习 AI 的建议和资源推荐: 1. 了解 AI 基本概念: 建议阅读「」部分,熟悉 AI 的术语和基础概念,包括人工智能的主要分支(如机器学习、深度学习、自然语言处理等)以及它们之间的联系。 浏览入门文章,了解 AI 的历史、当前的应用和未来的发展趋势。 2. 开始 AI 学习之旅: 在「」中,您将找到一系列为初学者设计的课程,特别推荐李宏毅老师的课程。 通过在线教育平台(如 Coursera、edX、Udacity)上的课程,按照自己的节奏学习,并有机会获得证书。 3. 选择感兴趣的模块深入学习: AI 领域广泛(比如图像、音乐、视频等),您可以根据自己的兴趣选择特定的模块进行深入学习。 掌握提示词的技巧,它上手容易且很有用。 4. 实践和尝试: 理论学习之后,实践是巩固知识的关键,尝试使用各种产品做出您的作品。 在知识库提供了很多大家实践后的作品、文章分享,欢迎您实践后的分享。 5. 体验 AI 产品: 与现有的 AI 产品进行互动,如 ChatGPT、Kimi Chat、智谱、文心一言等 AI 聊天机器人,了解它们的工作原理和交互方式。 此外,关于 AI 知识库使用及 AIPO 活动的介绍:讨论了 AI 知识库的使用情况、AIPO 活动的发起背景、内容安排及相关资源等。AIPO 线下活动及 AI 相关探讨:讨论了 AIPO 线下活动的规则和玩法,以及 AI 在科技发展中的重要地位和相关研究方向。way to AGI 社区活动与知识库介绍:讨论了 way to AGI 社区活动的安排、材料准备以及知识库的使用和相关内容更新等情况。 学习路径方面:有李弘毅老师的生成式 AI 导论等高质量学习内容,可系统化学习或通过社区共创活动反推学习,鼓励整理学习笔记并分享交流。初学者入门推荐:推荐看 open AI 的官方 Cookbook,小琪姐做了中文精读翻译,也可查看 cloud 的相关内容。历史脉络类资料:整理了 open AI 的发展时间线和万字长文回顾等。
2025-03-27