Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

Java 程序员如何从 0 到 1 开发微调模型

Answer

以下是 Java 程序员从 0 到 1 开发微调模型的步骤和相关信息:

准备工作: 假设您已经按照相关说明准备了训练数据。

使用 OpenAI CLI 进行微调

  1. 明确从哪里 BASE_MODEL 开始的基本模型的名称(如 ada、babbage、curie 或 davinci),您可以使用后缀参数自定义微调模型的名称。
  2. 运行相关命令,该命令会执行以下操作:
    • 使用文件 API 上传文件(或使用已经上传的文件)。
    • 创建微调作业。
    • 流式传输事件直到作业完成(这通常需要几分钟,但如果队列中有很多作业或您的数据集很大,则可能需要数小时)。

关于基本模型: 每个微调工作都从一个默认为 curie 的基本模型开始。模型的选择会影响模型的性能和运行微调模型的成本。您的模型可以是 ada、babbage、curie 或 davinci。请访问定价页面了解有关微调费率的详细信息。

微调作业的时间: 开始微调作业后,可能需要一些时间才能完成。在系统中,您的工作可能排在其他工作之后,训练模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。如果事件流因任何原因中断,您可以通过运行特定命令恢复它。工作完成后,它应该显示微调模型的名称。

微调的优势

  1. 比即时设计更高质量的结果。
  2. 能够训练比提示中更多的例子。
  3. 由于更短的提示而节省了 Token。
  4. 更低的延迟请求。

微调的步骤

  1. 准备和上传训练数据。
  2. 训练新的微调模型。
  3. 使用您的微调模型。

可微调的模型: 微调目前仅适用于以下基础模型:davinci、curie、babbage 和 ada。这些是原始模型,在训练后没有任何说明(例如 text-davinci-003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。

安装建议: 建议使用 OpenAI 命令行界面(CLI)。要安装这个,运行相关指令(以下说明适用于 0.9.4 及更高版本。此外,OpenAI CLI 需要 python 3)。通过将相关行添加到您的 shell 初始化脚本(例如.bashrc、zshrc 等)或在微调命令之前的命令行中运行它来设置您的环境变量。

此外,还有“大圣:全网最适合小白的 Llama3 部署和微调教程”,其核心代码全部参考如下开源项目:GitHub-datawhalechina/self-llm:《开源大模型食用指南》基于 Linux 环境快速部署开源大模型,更适合中国宝宝的部署教程 。该教程有诸多亮点,如教您如何购买算力,手把手教您下载并部署 Llama3 模型,使用甄嬛数据集微调 Llama3 模型等,但不会讲解微调的技术性原理以及文中会用到的 Python 代码,且需要您充值 50 块钱购买算力的预充值。

Content generated by AI large model, please carefully verify (powered by aily)

References

微调(Fine-tuning)

以下假设您已经按照上述说明准备了训练数据。使用OpenAI CLI开始微调工作:您从哪里BASE_MODEL开始的基本模型的名称(ada、babbage、curie或davinci)。您可以使用后缀参数自定义微调模型的名称。运行上面的命令会做几件事:1.使用文件API上传文件(或使用已经上传的文件)2.创建微调作业3.流式传输事件直到作业完成(这通常需要几分钟,但如果队列中有很多作业或您的数据集很大,则可能需要数小时)每个微调工作都从一个默认为curie的基本模型开始。模型的选择会影响模型的性能和运行微调模型的成本。您的模型可以是以下之一:ada、babbage、curie或davinci。请访问我们的定价页面,了解有关微调费率的详细信息。开始微调作业后,可能需要一些时间才能完成。在我们的系统中,您的工作可能排在其他工作之后,训练我们的模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。如果事件流因任何原因中断,您可以通过运行以下命令恢复它:工作完成后,它应该显示微调模型的名称。除了创建微调作业外,您还可以列出现有作业、检索作业状态或取消作业。

微调(Fine-tuning)

了解如何为您的应用程序定制模型。[heading2]介绍[content]通过提供以下内容,微调可让您从API提供的模型中获得更多收益:1.比即时设计更高质量的结果2.能够训练比提示中更多的例子3.由于更短的提示而节省了Token4.更低的延迟请求GPT-3已经在来自开放互联网的大量文本上进行了预训练。当给出仅包含几个示例的提示时,它通常可以凭直觉判断出您要执行的任务并生成合理的完成。这通常称为“小样本学习”。微调通过训练比提示中更多的示例来改进小样本学习,让您在大量任务中取得更好的结果。对模型进行微调后,您将不再需要在提示中提供示例。这样可以节省成本并实现更低延迟的请求。在高层次上,微调涉及以下步骤:1.准备和上传训练数据2.训练新的微调模型3.使用您的微调模型[heading2]哪些模型可以微调?[content]微调目前仅适用于以下基础模型:davinci、curie、babbage和ada。这些是原始模型,在训练后没有任何说明(例如text-davinci-003)。您还可以继续微调微调模型以添加其他数据,而无需从头开始。[heading2]安装[content]我们建议使用我们的OpenAI命令行界面(CLI)。要安装这个,运行(以下说明适用于0.9.4及更高版本。此外,OpenAI CLI需要python 3。)OPENAI_API_KEY通过将以下行添加到您的shell初始化脚本(例如.bashrc、zshrc等)或在微调命令之前的命令行中运行它来设置您的环境变量:

大圣:全网最适合小白的 Llama3 部署和微调教程

本文的核心代码全部参考如下开源项目:[GitHub-datawhalechina/self-llm:《开源大模型食用指南》基于Linux环境快速部署开源大模型,更适合中国宝宝的部署教程](https://github.com/datawhalechina/self-llm/tree/master)[heading1]一、引言[content]大家好,我是大圣,一个致力于使用AI技术将自己打造为超级个体的程序员。作为一名程序员,我对大模型技术是非常向往的,但是因为是非科班出身,一直迟迟没有动手。在Llama3出来之后,我萌生了微调的想法,我的目的很简单,不是为了学习多么高深的知识,而是让自己先入门。入门最好的方式就是直接上手实操,这是也是之前的一系列教程中所强调的理念。由于市面上没有找到专门针对我们纯小白的教程,所以这篇教程就来啦!这篇教程的亮点教你如何购买算力,不再为本地电脑的配置不够而发愁手把手教你下载并部署Llama3模型,以前都是玩别人部署的,这次咱们玩自己的!)使用甄嬛数据集微调Llama3模型,并且针对微调后的模型进行实验了解微调的意义和概念但是这篇教程不会讲解微调的技术性原理以及文中会用到的Python代码。原因很简单,因为我是一位Java开发工程师,里面的代码我都是靠GPT4.0帮我读的另外这篇教程需要你充值50块钱,不过不是给我哦,是购买算力的预充值。我不想因为50块钱把你劝退,所以这里我要多说一句,免费的才是最贵的。看完我的教程,你绝对会认为这50块钱花的很值OK,都交代清楚,大家按照决定是否要继续享用,废话不多少,我们直接开始

Others are asking
基于规则的测试生成: 测试用例生成工具: Randoop:基于代码路径和规则生成测试用例,适用于 Java 应用程序。这个应该怎样使用呢
很抱歉,目前没有关于 Randoop 工具使用方法的相关内容。您可以通过以下途径获取更详细的信息: 1. 官方文档:访问 Randoop 的官方网站,查找其提供的详细使用说明和教程。 2. 技术论坛:在相关的技术论坛上搜索关于 Randoop 使用的讨论和经验分享。 3. 开源社区:参与开源社区中关于 Randoop 的交流,向其他开发者请教。
2025-04-08
Java相关的AI
以下是关于 Java 相关的 AI 的一些信息: 1. 利用固定格式文档结合 AI 进行代码开发的可行性分析:建议优化方面,要强调组员主观能动性,让他们自主设计,组长负责引导和经验分享。文档并非唯一最佳方式,可尝试用简短描述或 Prompt 辅助代码生成。经验分享方面,在 AI 编程中,设计非常重要,模块化低耦合设计和清晰的上下文对代码生成效果尤为关键。参考链接: 2. 后端 Java 程序员转向 LLM 方向的行动建议:借助 AI 编程(如 Cursor),熟悉 LLM 原理,探索复杂 Prompt 和定制化规则。开展 LLM 相关的 Side Project(如翻译工具、AI 对话应用等),通过实践快速掌握技能。将 AI 当老师,边做边学,获取即时反馈,持续提升。核心建议是行动起来,找到正反馈,坚持使用 AI 辅助编程。参考链接:
2025-03-14
java程序员怎么转型大模型算法工程师
以下是为 Java 程序员转型大模型算法工程师提供的一些建议: 1. 学习相关理论知识:了解大模型的基本原理,包括模型架构、预训练及微调、部署及推理等。 2. 掌握技术工具:熟悉 LLM 相关技术,如 Transformer、Prompt Tuning、RLHF、Langchain、Agent、MOE、RAG 等。 3. 提升编程能力:熟悉算法和数据结构,具备扎实的编程基础,尤其是 Python 开发。 4. 积累项目经验: 可以参考大圣的全网最适合小白的 Llama3 部署和微调教程,该教程手把手教您下载并部署 Llama3 模型,使用甄嬛数据集微调模型,并了解微调的意义和概念。但需注意,此教程不会讲解微调的技术性原理及文中用到的 Python 代码。 关注招聘信息,例如序智科技和中国移动设计院的招聘需求,了解大模型算法工程师的职责和要求,针对性地提升自己的能力。 5. 增强相关技能: 对至少 2 个框架具备源码级别的理解和优化能力,包括但不限于 Langchain、XAgent、ChatDev、DsPy、AutoGPT、BabyAGI、MetaGPT。 熟悉 GPT Function Calling 原理,熟练掌握 Prompt Engineering。 对预训练/微调(尤其是微调)熟练,熟练掌握 huggingface/deepspeed(或其他框架)。 对多模态大模型有一定了解,精通低代码平台会是加分项。 您可以根据自身情况,有针对性地进行学习和实践,逐步实现从 Java 程序员向大模型算法工程师的转型。
2025-03-12
java程序员,怎么吧AI结合到公司的业务上去,K12教育公司
对于 Java 程序员将 AI 结合到 K12 教育公司的业务中,以下是一些可能的方向和建议: 首先,可以考虑利用自然语言处理技术来改善学生与学习平台的交互体验。例如,开发智能客服,能够自动回答学生和家长常见的问题,提高服务效率。 其次,通过机器学习算法对学生的学习数据进行分析,从而实现个性化的学习推荐。比如根据学生的学习进度、成绩、学习习惯等因素,为他们推荐适合的课程、练习和学习资源。 另外,运用图像识别技术来辅助教学材料的制作和评估。例如,自动识别和批改学生的手写作业、试卷等。 还可以开发智能辅导系统,为学生提供实时的学习指导和答疑服务。 最后,利用语音识别和合成技术,打造有声读物、语音教学等功能,丰富教学形式。 但在将 AI 引入业务的过程中,需要注意数据的安全性和合法性,以及确保技术的可靠性和稳定性。同时,要充分考虑教育的特点和学生的需求,以实现有效的融合和应用。
2025-02-23
有java scala hadoop spark flink开发经验员工入门AI 学习提纲以及对应学习内容
以下是为有 Java、Scala、Hadoop、Spark、Flink 开发经验的员工提供的 AI 入门学习提纲及对应学习内容: 1. 学习资源推荐: 系统化学习:观看李弘毅老师的生成式 AI 导论、吴达的生成式 AI 入门视频等,并整理学习笔记与大家交流互动。 社区共创学习:参与社区共创活动,通过做小项目反向推动学习。 参考资料:A16Z 推荐的 AI 相关原理内容,包括 GPT 相关知识、Transformer 模型运作原理、大语言模型词语接龙原理等基础知识。 官方 cookbook:open AI 的官方 cookbook,小琪姐做了中文精读翻译。 历史脉络资料:整理 open AI 的发展时间线、万字长文回顾等。 2. 学习路径: 从提示词开始学习与各类模型的对话,了解其重要性和结构化提示词的优势。 学习过程中可以先从国内模型工具入手,不花钱,若想进阶再考虑高阶方向。 3. 其他学习方式: 创作者将内容做成可视化形式,后续会发到群里。 上传相关 PPT 用作参考。 从温达、李弘毅老师课程等学习入门。 了解时代杂志评选的百位领军人物。 学习 AI 相关名词解释,如 AGI、AIGC、agent、prompt 等,可通过与 AI 对话或李继刚老师的课程来理解。 订阅赛博蝉星公众号、国外优质博主的 blog 或 Twitter 等获取最新信息并投稿。 参与社区活动,如 AIPU、CONFIUI 生态大会、每月的切磋大会、新活动 AIPO 等。
2025-02-21
大模型在软件开发公司(主java+vue)的应用场景有哪些
大模型在以 Java 和 Vue 技术为主的软件开发公司中,具有以下一些应用场景: 1. 代码自动生成:大模型可以根据需求描述生成 Java 或 Vue 的代码片段,提高开发效率。 2. 代码优化建议:分析现有代码,提供优化的建议和策略,提升代码质量。 3. 智能错误检测与修复:快速识别代码中的错误,并提供可能的修复方案。 4. 需求分析与理解:帮助更好地理解和梳理复杂的业务需求,转化为技术实现的思路。 5. 自动化测试用例生成:根据代码和需求生成有效的测试用例,提高测试效率和覆盖度。 6. 技术选型辅助:在面临新的项目或技术难题时,提供相关技术选型的参考和建议。
2025-02-06
对程序员在 AI 能力上不同维度的分析
以下是对程序员在 AI 能力上不同维度的分析: AI 对程序员工作的影响: AI 可代替的部分:代码生成、补全、分析问题和数据提取、辅助架构设计文档等。 AI 无法代替的部分:需求分析、复杂项目拆分、线上问题排查、调试及安全性保障。 企业考察候选人 AI 能力的要点: 基础 AI 应用能力:包括提示词工程,会用合适的方式提问以引导 AI 输出高质量答案;内容评估能力,能够判断 AI 生成的内容是否靠谱并加以优化;熟练使用 AI 工具,能快速上手各类 AI 工具,如 DeepSeek、Cursor、Midjourney 等。 高级 AI 应用能力:任务拆解能力,知道哪些工作适合用 AI,哪些环节需要人工把控;业务场景应用能力,能在实际工作中灵活运用 AI 提高效率。 加分项:快速学习能力,能跟上 AI 技术的快速迭代,主动学习新工具、新方法。 不同领域考察 AI 能力的方式:因领域而异。 程序员与 AI 编程助手: 约 2/3 的 730 名程序员已在使用 AI 编程助手(如 ChatGPT、GitHub Copilot、Cursor 等),原因包括对新技术的敏感性、尝试后获得效率红利、习惯养成。 使用比例远超预期,AI 编程助手迅速渗透开发者日常,好奇心驱动和效率反馈形成正向循环,AI 的使用逐渐成为程序员的“标配能力”。 AI 对编程行业的影响: 不止于“效率提升”,还带来岗位结构、心理预期、安全风险等深层变化。 技能退化与岗位压缩令人焦虑,使用 AI 成为职场新基本素养,心理压力、合规风险需同步应对。 积极影响与未来趋势:人机协作成为主流,AI 释放开发者创造力;门槛降低促使创新频率提升;持续学习与能力更新成为行业新常态。
2025-04-09
分析程序员在AI能力上的不同维度,比如AI框架,AIPrompt等
以下是对程序员在 AI 能力上不同维度的分析,包括 AI 框架和 AI Prompt 等方面: AI 框架: PromptPal:专为 AI 领域中的初创公司和个人开发者设计的提示管理工具,是一个集中化平台,便于在 AI 项目中管理提示,实现协作和工作流程优化。具有本地部署和云原生、简易设置、数据库支持、SDK 支持、提示跟踪与分析、协作工具等特点。开发指向: ChainForge:开源的可视化编程环境,专门用于测试大型语言模型(LLMs)的提示。允许用户进行快速而有效的提示想法测试和变化,具有多模型测试、响应质量比较、评估指标设置、多对话管理等特点。开发指向: AI Prompt: Promptknit:为 AI Prompts 测试提供服务的平台,可能提供工具和资源来帮助用户设计、测试和优化 AI 模型的提示。网站: 对于律师等法律人写好 Prompt 的建议: 明确 Prompt 是给人工智能(AI)系统提供的信息或问题,用来引导其产生特定回答或执行特定任务。 建议框架及格式:CRISPE 包括 Capacity and Role(能力与角色)、Insight(洞察)、Statement(陈述)、Personality(个性)、Experiment(举例)。例如,在处理合同纠纷案件时,为 AI 赋予角色和能力,提供背景信息和上下文,明确期望其完成的任务,设定回答风格等。
2025-04-09
ai论文程序员是什么岗位
在现行法律体系框架下,AI 论文中关于程序员在著作权归属方面存在以下情况: 程序员不是编写 AI 代码所生成内容的著作权归属主体。虽然构建 AI 模型耗费了程序员大量脑力劳动,但他们只是代码的创作主体,其权利可通过计算机软件著作权进行保护。 以 Stable Diffusion 生成的图片为例,程序员对最终产出的图像没有创作的主观意愿,不能成为图片的创作主体。
2025-04-08
我不会写代码,怎么像个程序员一样利用ai帮我写代码
如果您不会写代码但想利用 AI 帮您写代码,可以参考以下方法: 1. 对于编程小白来说,最好向 AI 提供代码节点中的范例,也就是新进入代码节点的 IDE 中所看到的那些代码(从 async def 到 return 的内容)。因为 AI 可能并不清楚代码中规定的输入输出格式(比如代码节点的 Python 语言使用字典的形式来组织输入和输出的变量),所以提供范例可以尽可能减少您需要对 AI 所写代码的改动。 2. 需要向 AI 说清楚输入变量与输出变量的类型。 3. 最好说明与工作流中匹配或想要的变量名称,以减少二次修改。 4. 最好列出输入变量的具体书写形式,以方便 AI 尽可能准确地理解。如果是 Object 或 Array 这样较为复杂的形式,您不会写,可以使用下面这个方法:在前一个节点后接一个“文本处理”节点,选择字符串拼接,输入选择前一个节点输出中所需的那个变量,拼接内容写{{String1}}就行,然后试运行,展开该节点的运行结果,复制最终输出中“output:”后面的内容即可,如果内容太长,提问时可省略不重要的具体内容,保留书写形式即可。 5. 说清楚代码要实现什么功能,如果功能较为复杂,尽量将运行逻辑说清楚,越清楚越好。描述中尽量用变量名称来指代所涉及到的各个变量。 这里给出一个提问范式供大家参考: 请仿照上述代码的结构,用 python 编写代码,实现以下功能: 输入变量为。 输出变量为。 。关键步骤请附上注释。 另外,如果您在处理 SQL 代码时不会写,也可以让 AI 帮忙。例如,您可以将以下内容发送给 AI:学习这个文档 https://www.coze.cn/docs/guides/database,然后帮我撰写用于工作流的 sql。之后按照 AI 的回复要求提供具体需求,如数据库表名称、操作类型、相关字段等,AI 会为您生成相应的 SQL 语句。 在使用代码节点时,即使您不是程序员,也可以让 AI 帮您写代码。但要先搞清楚输入和输出以及想要代码实现的逻辑。比如在处理谷歌搜索节点的输出作为 Code 节点的输入时,要先了解相关字段,如 link(网址)、title(标题)、snippet(简短介绍)、source(来源)等。
2025-03-08
程序员在使用AI的时候会涉及哪些AI工具,帮我分别具体列举出来
程序员在使用 AI 时,可能会涉及以下一些 AI 工具: 1. GitHub Copilot:由 GitHub 联合 OpenAI 和微软 Azure 团队推出,支持多种语言和 IDE,能为程序员快速提供代码建议,帮助提高编写代码的效率。 2. 通义灵码:阿里巴巴团队推出,基于通义大模型,提供行级/函数级实时续写、自然语言生成代码、单元测试生成、代码注释生成等多种能力。 3. CodeWhisperer:亚马逊 AWS 团队推出的由机器学习技术驱动的代码生成器,为开发人员实时提供代码建议。 4. CodeGeeX:智谱 AI 推出的开源免费 AI 编程助手,基于 130 亿参数的预训练大模型,可快速生成代码。 5. Cody:代码搜索平台 Sourcegraph 推出的 AI 代码编写助手,借助强大的代码语义索引和分析能力,了解开发者的整个代码库。 6. CodeFuse:蚂蚁集团支付宝团队为国内开发者提供的智能研发服务的免费 AI 代码助手,基于蚂蚁集团自研的基础大模型进行微调。 7. Codeium:一个由 AI 驱动的编程助手工具,通过提供代码建议、重构提示和代码解释来帮助软件开发人员提高编程效率和准确性。 此外,还有一些其他相关的 AI 工具,如: 1. ChatAll:可以同时与多个 AI 机器人实时聊天的开源工具,支持多种主流 AI 聊天机器人。 2. AIProductsAllInOne:整理了一些 ChatGPT 以及 AI 相关的生产力工具。 3. Shell GPT:在命令行中集成了 ChatGPT,帮助快速编写 shell 命令、代码片段等。 4. 飞书 GPT:集成了飞书、GPT3.5、Dall·E、Whisper 等 API,支持多种功能。 5. ChatPDF:提取 PDF 文件内容并交给 ChatGPT 分析,实现一对一对话交流。 6. GitHub Copilot X:基于 AI 驱动的跨时代代码编辑器,带来全新编程体验。 在 PPT 制作方面,有以下 AI 工具: 1. MindShow 2. 爱设计 3. 闪击 4. Process ON 5. WPS AI 每个工具都有其特色和适用场景,程序员可以根据自己的需求选择最适合的工具。
2025-03-07
热点的大模型微调蒸馏工具有哪些
以下是一些热点的大模型微调蒸馏工具: FLUX.1:包括 FLUX.1(可商用,为本地开发和个人使用定制,生成速度快,内存占用小,在 Apache 2.0 许可下公开提供,支持在 Replicate、fal.ai 和 Comfy UI 等平台使用,且支持用户根据自己数据集微调)。其训练参数高达 120 亿,在图像质量、提示词跟随等多方面超越流行模型,工作原理基于混合架构,结合变换器和扩散技术。 基于阿里云 PAI 平台:可复现 R1 蒸馏及蒸馏训练模型过程。部署 32b 的蒸馏模型展示效果,包括模型部署(如选中模型卡片后的操作、选择 vLLM 部署、涉及竞价系统等)、蒸馏数据获取(在本地 python 环境或 notebook gallery 建立实例执行代码获取蒸馏数据集)等。 DeepSeek:PaaS 平台支持多机分布式部署,满足推理性能要求,能一站式完成模型蒸馏。可登录 Pad 控制台通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价部署,部署后可在模型在线服务 EAS 查看状态。还介绍了模型 API 调用、服务关停、蒸馏概念、应用场景及部署实操等。
2025-04-13
deepseek v3微调
以下是关于 Deepseek V3 微调的相关信息: 云舒文章总结卡 2.0 提示词全面支持 Deepseek V3,效果媲美 Claude3.7。V3 需要为 0324 更新的版本,DS 官网及 API 已更新,如调用其它平台 API 需要查看 DS 版本号。提示词复制链接:。横版为 1080 x 800 卡片提示词,竖版为 750 x 不限高卡片提示词。 各平台均需下载 html 文件,打开后才能查看真实效果,平台自带预览因兼容性问题无法正常展示效果。Claude 使用平台包括 Claude3.7 官网、API、Cursor,使用时需要下载为 HTML 文件打开查看效果。Deepseek 使用平台包括 Deepseek 官网、API(V3 需要为 0324 更新的版本),Deepseek 需要复制代码到 html 文件里,然后保存进行查看。 关于智能纪要,会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面。 北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调,DeepSeekV3 降至原价的 50%。
2025-04-12
有哪些针对CoT能力的微调工具
以下是一些针对 CoT 能力的微调工具: 1. Selfconsistency CoT:使用手动设计的 Prompt 生成采样一组不同的推理路径,再通过“多数投票”找到推理步骤中“最一致”的路径,使用这条解码路径驱动原始的贪心解码方式来提示 CoT 性能。 2. MMCoT:侧重使用微调方法嵌入 CoT,通过将语言和图像合并在一个包含推理生成与答案推理的两阶段的框架中,使用微调大模型赋予输入多模态 CoT 的能力。 3. GoTInput 方法:通过对 CoT 生成的思维图进行抽取构建三元组,并使用 GNN 将文本、图像与 CoT 统一,从而生成包含 CoT 信息的最终答案。 4. VCoT:解决了一个输出多模态的问题,通过以生成图片的“标题”以及识别核心关注点作为图像生成的启动过程,通过递归的方式填充图像信息,从而实现输出多模态。 此外,在将 DoT 扩展到预训练的扩散语言模型 Plaid 1B 并在更复杂的推理任务上进行评估时,自回归模型和扩散模型在使用 CoT 或 DoT 进行微调时都显示出显著提高的性能。在微调 Plaid 1B 时,也探索了几种替代方案。 在强化学习驱动的合成数据生成与模型优化流程中,也涉及到 CoT 的相关应用和优化,如初始 CoT 生成、CoT 存储等。
2025-04-12
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10
如何做 deepseek 微调
要进行 DeepSeek 微调,以下是一些相关的知识和步骤: 1. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 2. 本地部署介绍:如果拥有云服务器,可以进行本地部署,了解满血版本地部署的实际情况。 3. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 4. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 5. 对于微调的全过程,建议阅读 Unsloth 笔记本和 HuggingFace 的《如何微调开放式 LLMs》,也可以使用《如何在一小时内阅读论文》作为指南。 6. 更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948
2025-04-08
怎么本地部署ai模型,并进行微调
以下是本地部署 AI 模型并进行微调的主要步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,关于本地部署还有以下相关内容: 如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 PaaS 平台支持多机分布式部署,满足推理性能要求,使用独占资源和专有网络,能一站式完成模型蒸馏。 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 介绍了模型 API 的调用方法,包括查找位置、获取 token 等,强调使用后要及时停止或删除服务以避免持续付费。 总的来说,部署和训练自己的 AI 模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-03-27
大模型的系统提示词
大模型的系统提示词主要包括以下方面: 1. 在“五津:一键生成‘摸鱼打工猫’视频”中,针对用户选择的主题和回答,总结用户的创作意图,如“打工猫摸鱼的 2 小时,在巴厘岛能看一场日落”,并根据此生成 4 组体现幽默风趣、以宫崎骏风格描绘主角为摸秋刀鱼橘猫的绘图提示词,以数组形式输出到“tishici”,将用户意图输出到“biaoti”。 2. 在“云中江树:智能对决:提示词攻防中的 AI 安全博弈”中,系统提示词的相关防御措施分为输入侧、模型侧和输出侧三个部分。输入侧可进行意图识别、语义匹配等综合判断用户输入是否恶意;模型侧对于有能力的厂商应增强安全性并平衡性能,开发者则要在开发中带着安全意识优化系统提示词,加入安全引导和禁止内容等;输出侧可使用传统防御和内容过滤手段,并针对大模型特点进行私有数据泄露等检查。此外,还提到间接注入和提示词泄露的情况,间接注入常发生在应用获取依赖外部数据资源时,攻击者通过隐藏恶意指令完成攻击;提示词泄露指试图操纵模型输出获取部分或全部系统提示词,大模型输出内容可分为系统提示词、用户提示和助手提示词三段,通过攻击手段可获取系统提示词。
2025-04-18
通义千问Qwen2.5-VL、阶跃星辰step-1.5v-mini、Gemini-2.0-Flash,这3个视觉理解大模型哪个最厉害?
以下是对通义千问 Qwen2.5VL 模型的介绍: 版本:有 3B、7B 和 72B 三个尺寸版本。 主要优势: 视觉理解能力:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。 视频理解能力:支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。 万物识别:擅长识别常见物体及分析图像中的文本、图表、图标、图形和布局。 精准的视觉定位:采用矩形框和点的多样化方式对通用物体定位,支持层级化定位和规范的 JSON 格式输出。 全面的文字识别和理解:提升 OCR 识别能力,增强多场景、多语言和多方向的文本识别和文本定位能力。 Qwen 特色文档解析:设计了更全面的文档解析格式,称为 QwenVL HTML 格式,能够精准还原文档中的版面布局。 增强的视频理解:引入动态帧率(FPS)训练和绝对时间编码技术,支持小时级别的超长视频理解,具备秒级的事件定位能力。 开源平台: Huggingface:https://huggingface.co/collections/Qwen/qwen25vl6795ffac22b334a837c0f9a5 Modelscope:https://modelscope.cn/collections/Qwen25VL58fbb5d31f1d47 Qwen Chat:https://chat.qwenlm.ai 然而,对于阶跃星辰 step1.5vmini 和 Gemini2.0Flash 模型,目前提供的信息中未包含其与通义千问 Qwen2.5VL 模型的直接对比内容,因此无法确切判断哪个模型在视觉理解方面最厉害。但从通义千问 Qwen2.5VL 模型的上述特点来看,其在视觉理解方面具有较强的能力和优势。
2025-04-15
目前全世界最厉害的对视频视觉理解能力大模型是哪个
目前在视频视觉理解能力方面表现出色的大模型有: 1. 昆仑万维的 SkyReelsV1:它不仅支持文生视频、图生视频,还是开源视频生成模型中参数最大的支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其具有影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等优势。 2. 通义千问的 Qwen2.5VL:在 13 项权威评测中夺得视觉理解冠军,全面超越 GPT4o 与 Claude3.5。支持超 1 小时的视频理解,无需微调即可变身为 AI 视觉智能体,实现多步骤复杂操作。擅长万物识别,能分析图像中的文本、图表、图标、图形和布局等。
2025-04-15
目前全世界最厉害的视频视觉理解大模型是哪个
目前全世界较为厉害的视频视觉理解大模型有以下几个: 1. 昆仑万维的 SkyReelsV1:不仅支持文生视频、图生视频,是开源视频生成模型中参数最大且支持图生视频的模型。在同等分辨率下各项指标实现开源 SOTA。其优势包括影视化表情识别体系、人物空间位置感知、行为意图理解、表演场景理解等。 2. 腾讯的混元:语义理解能力出色,能精准还原复杂的场景和动作,如特定品种的猫在复杂场景中的运动轨迹、从奔跑到跳跃的动作转换、琴音化作七彩音符等。 3. Pixverse V3.5:全球最快的 AI 视频生成模型,Turbo 模式下可在 10 秒内生成视频,最快仅需 5 6 秒。支持运动控制更加稳定、细节表现力强、首尾帧生成功能,具备顶尖动漫生成能力。
2025-04-15
目前全世界最厉害的视觉理解大模型是哪个
目前在视觉理解大模型方面,较为突出的有 DeepSeek 的 JanusPro 模型,它将图像理解和生成统一在一个模型中;还有通义千问的视觉理解模型,其价格有较大降幅。此外,Pixverse V3.5 是全球最快的 AI 视频生成模型,在某些方面也展现出了出色的能力。但很难确切地指出全世界最厉害的视觉理解大模型,因为这取决于不同的评估标准和应用场景。
2025-04-15
大模型对话产品的优劣
大模型对话产品具有以下优点: 1. 具有强大的语言理解和生成能力。 2. 能够提供类似恋爱般令人上头的体验,具有一定的“想象力”和“取悦能力”。 3. 可以通过陪聊建立人和 AI 之间的感情连接,产品粘性不完全依赖技术优越性。 4. 能够为用户提供产品咨询服务,适用于有企业官网、钉钉、微信等渠道的客户。 5. 具有多种应用场景,如私有领域知识问答、个性化聊天机器人、智能助手等。 大模型对话产品也存在一些缺点: 1. 存在记忆混乱的问题。 2. AI 无法主动推动剧情,全靠用户脑补,导致用户上头期短,疲劳度高,长期留存低。 3. 无法回答私有领域问题(如公司制度、人员信息等)。 4. 无法及时获取最新信息(如实时天气、比赛结果等)。 5. 无法准确回答专业问题(如复杂数学计算、图像生成等)。
2025-04-14