Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

微调训练框架的选择

Answer

以下是关于微调训练框架选择的相关内容:

在 Stable Diffusion 中:

  • 首先,config 文件夹中有两个配置文件 config_file.toml 和 sample_prompt.toml,分别存储着训练超参数与训练中的验证 prompt。
  • config_file.toml 文件主要包含了 model_arguments、optimizer_arguments、dataset_arguments、training_arguments、sample_prompt_arguments 以及 saving_arguments 六个维度的参数信息。
    • v2 和 v_parameterization:两者同时设置为 true 时,开启 Stable Diffusion V2 版本的训练。
    • pretrained_model_name_or_path:读取本地 Stable Diffusion 预训练模型用于微调训练。
    • optimizer_type:有["AdamW"(default)、"AdamW8bit"、"Lion"、"SGDNesterov"、"SGDNesterov8bit"、"DAdaptation"、"AdaFactor"]七种优化器可以选择。不进行选择时默认启动 AdamW 优化器;显存不太充足时,可选择 AdamW8bit 优化器,但会有轻微性能损失;Lion 优化器是较新的版本,性能优异,但学习率需设置较小,比如为 AdamW 优化器下的 1/3。
    • learning_rate:单卡推荐设置 2e-6,多卡推荐设置 1e-7。
  • 除了上述的训练环境参数传入,还需将配置好的 config_file.toml 和 sample_prompt.txt 参数传入训练脚本中。
  • 当设置 1024 分辨率+FP16 精度+xformers 加速时,SD 模型进行 Batch Size=1 的微调训练需要约 17.1G 的显存,进行 Batch Size=4 的微调训练需要约 26.7G 的显存,所以最好配置一个 24G 以上的显卡。
  • 微调训练完成后,模型权重会保存在之前设置的 output_dir 路径下。可以使用 Stable Diffusion WebUI 作为框架加载模型进行 AI 绘画,需将训练好的模型放入/models/Stable-diffusion 文件夹下。

在 OpenAI 中:

  • 使用 OpenAI CLI 开始微调工作,需指定从哪个 BASE_MODEL 开始(ada、babbage、curie 或 davinci),还可使用后缀参数自定义微调模型的名称。
  • 运行命令后会上传文件、创建微调作业并流式传输事件直到作业完成。
  • 每个微调工作都从一个默认为 curie 的基本模型开始,模型的选择会影响性能和成本。
  • 开始微调作业后,可能需要几分钟或几小时才能完成,工作完成后会显示微调模型的名称。此外,还可以列出现有作业、检索作业状态或取消作业。
Content generated by AI large model, please carefully verify (powered by aily)

References

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

接下来,Rocky将带着大家从头到尾走通SD全参微调训练过程,并讲解训练参数的意义。首先,我们可以看到config文件夹中有两个配置文件config_file.toml和sample_prompt.toml,他们分别存储着SD的训练超参数与训练中的验证prompt。config文件夹中的配置文件config_file.toml和sample_prompt.txt其中config_file.toml文件主要包含了model_arguments,optimizer_arguments,dataset_arguments,training_arguments,sample_prompt_arguments以及saving_arguments六个维度的的参数信息,下面Rocky为大家依次讲解各个超参数的作用:v2和v_parameterization:两者同时设置为true时,开启Stable Diffusion V2版本的训练。pretrained_model_name_or_path:读取本地Stable Diffusion预训练模型用于微调训练。optimizer_type:选择优化器类型。一共有:["AdamW"(default),"AdamW8bit","Lion","SGDNesterov","SGDNesterov8bit","DAdaptation","AdaFactor"]七种优化器可以选择。其中当我们不进行选择优化器类时,默认会启动AdamW优化器;当我们的显存不太充足时,可以选择AdamW8bit优化器,能降低训练时的显存占用,但代价是轻微地性能损失;Lion优化器是目前优化器方向上最新的版本,性能较为优异,但是使用Lion优化器时学习率需要设置较小,比如设置为AdamW优化器下的1/3。learning_rate:训练学习率,单卡推荐设置2e-6,多卡推荐设置1e-7。

教程:深入浅出完整解析Stable Diffusion(SD)核心基础知识 - 知乎

除了上述的训练环境参数传入,最重要的还是将刚才配置好的config_file.toml和sample_prompt.txt参数传入训练脚本中。接下里,就到了激动人心的时刻,我们只需在命令行输入以下命令,就能开始SD模型的全参微调训练啦:训练脚本启动后,会打印出以下的log,方便我们查看整个训练过程的节奏:当我们设置1024分辨率+FP16精度+xformers加速时,SD模型进行Batch Size=1的微调训练需要约17.1G的显存,进行Batch Size=4的微调训练需要约26.7G的显存,所以想要微调训练SD模型,最好配置一个24G以上的显卡,能让我们更佳从容地进行训练。到此为止,Rocky已经将SD全参微调训练的全流程都做了详细的拆解,等训练完成后,我们就可以获得属于自己的SD模型了!(5)加载自训练SD模型进行AI绘画SD模型微调训练完成后,会将模型权重保存在我们之前设置的output_dir路径下。接下来,我们使用Stable Diffusion WebUI作为框架,加载SD宝可梦模型进行AI绘画。在本文4章中,Rocky已经详细讲解了如何搭建Stable Diffusion WebUI框架,未使用过的朋友可以按照这个流程快速搭建起Stable Diffusion WebUI。要想使用SD模型进行AI绘画,首先我们需要将训练好的SD宝可梦模型放入Stable Diffusion WebUI的/models/Stable-diffusion文件夹下。然后我们在Stable Diffusion WebUI中分别选用SD宝可梦模型即可:

微调(Fine-tuning)

以下假设您已经按照上述说明准备了训练数据。使用OpenAI CLI开始微调工作:您从哪里BASE_MODEL开始的基本模型的名称(ada、babbage、curie或davinci)。您可以使用后缀参数自定义微调模型的名称。运行上面的命令会做几件事:1.使用文件API上传文件(或使用已经上传的文件)2.创建微调作业3.流式传输事件直到作业完成(这通常需要几分钟,但如果队列中有很多作业或您的数据集很大,则可能需要数小时)每个微调工作都从一个默认为curie的基本模型开始。模型的选择会影响模型的性能和运行微调模型的成本。您的模型可以是以下之一:ada、babbage、curie或davinci。请访问我们的定价页面,了解有关微调费率的详细信息。开始微调作业后,可能需要一些时间才能完成。在我们的系统中,您的工作可能排在其他工作之后,训练我们的模型可能需要几分钟或几小时,具体取决于模型和数据集的大小。如果事件流因任何原因中断,您可以通过运行以下命令恢复它:工作完成后,它应该显示微调模型的名称。除了创建微调作业外,您还可以列出现有作业、检索作业状态或取消作业。

Others are asking
热点的大模型微调蒸馏工具有哪些
以下是一些热点的大模型微调蒸馏工具: FLUX.1:包括 FLUX.1(可商用,为本地开发和个人使用定制,生成速度快,内存占用小,在 Apache 2.0 许可下公开提供,支持在 Replicate、fal.ai 和 Comfy UI 等平台使用,且支持用户根据自己数据集微调)。其训练参数高达 120 亿,在图像质量、提示词跟随等多方面超越流行模型,工作原理基于混合架构,结合变换器和扩散技术。 基于阿里云 PAI 平台:可复现 R1 蒸馏及蒸馏训练模型过程。部署 32b 的蒸馏模型展示效果,包括模型部署(如选中模型卡片后的操作、选择 vLLM 部署、涉及竞价系统等)、蒸馏数据获取(在本地 python 环境或 notebook gallery 建立实例执行代码获取蒸馏数据集)等。 DeepSeek:PaaS 平台支持多机分布式部署,满足推理性能要求,能一站式完成模型蒸馏。可登录 Pad 控制台通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价部署,部署后可在模型在线服务 EAS 查看状态。还介绍了模型 API 调用、服务关停、蒸馏概念、应用场景及部署实操等。
2025-04-13
deepseek v3微调
以下是关于 Deepseek V3 微调的相关信息: 云舒文章总结卡 2.0 提示词全面支持 Deepseek V3,效果媲美 Claude3.7。V3 需要为 0324 更新的版本,DS 官网及 API 已更新,如调用其它平台 API 需要查看 DS 版本号。提示词复制链接:。横版为 1080 x 800 卡片提示词,竖版为 750 x 不限高卡片提示词。 各平台均需下载 html 文件,打开后才能查看真实效果,平台自带预览因兼容性问题无法正常展示效果。Claude 使用平台包括 Claude3.7 官网、API、Cursor,使用时需要下载为 HTML 文件打开查看效果。Deepseek 使用平台包括 Deepseek 官网、API(V3 需要为 0324 更新的版本),Deepseek 需要复制代码到 html 文件里,然后保存进行查看。 关于智能纪要,会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。Deepseek R1 反过来蒸馏数据微调 V3,形成互相帮助的局面。 北京时间 00:30 至 08:30 期间,DeepSeek API 价格大幅下调,DeepSeekV3 降至原价的 50%。
2025-04-12
有哪些针对CoT能力的微调工具
以下是一些针对 CoT 能力的微调工具: 1. Selfconsistency CoT:使用手动设计的 Prompt 生成采样一组不同的推理路径,再通过“多数投票”找到推理步骤中“最一致”的路径,使用这条解码路径驱动原始的贪心解码方式来提示 CoT 性能。 2. MMCoT:侧重使用微调方法嵌入 CoT,通过将语言和图像合并在一个包含推理生成与答案推理的两阶段的框架中,使用微调大模型赋予输入多模态 CoT 的能力。 3. GoTInput 方法:通过对 CoT 生成的思维图进行抽取构建三元组,并使用 GNN 将文本、图像与 CoT 统一,从而生成包含 CoT 信息的最终答案。 4. VCoT:解决了一个输出多模态的问题,通过以生成图片的“标题”以及识别核心关注点作为图像生成的启动过程,通过递归的方式填充图像信息,从而实现输出多模态。 此外,在将 DoT 扩展到预训练的扩散语言模型 Plaid 1B 并在更复杂的推理任务上进行评估时,自回归模型和扩散模型在使用 CoT 或 DoT 进行微调时都显示出显著提高的性能。在微调 Plaid 1B 时,也探索了几种替代方案。 在强化学习驱动的合成数据生成与模型优化流程中,也涉及到 CoT 的相关应用和优化,如初始 CoT 生成、CoT 存储等。
2025-04-12
本地部署大模型,如何微调建立本地知识库
以下是关于本地部署大模型并微调建立本地知识库的详细步骤: 一、使用 AnythingLLM 进行本地知识库搭建 1. 安装 AnythingLLM 安装地址:https://useanything.com/download 安装完成后进入配置页面,主要分为三步: 第一步:选择大模型 第二步:选择文本嵌入模型 第三步:选择向量数据库 2. 构建本地知识库 在 AnythingLLM 中创建自己独有的 Workspace 与其他项目数据隔离。 上传文档并在工作空间中进行文本嵌入。 选择对话模式,提供了 Chat 模式(大模型根据训练数据和上传文档数据综合给出答案)和 Query 模式(大模型仅依靠文档中的数据给出答案)。 二、张梦飞的全本地部署教程 1. 部署大语言模型 下载并安装 Ollama 点击进入,根据电脑系统,下载 Ollama:https://ollama.com/download 下载完成后,双击打开,点击“Install” 安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 下载 qwen2:0.5b 模型 如果是 Windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。 复制相关命令行,粘贴进入,点击回车。 三、智能纪要中的相关内容 在智能纪要中,许键介绍了模型 API 调用方法与知识库创建,包括获取 API key 位置及调用设置,详细讲解了创建 Rag 应用(知识库)流程,如上传非结构化文件、数据解析、切分段落等操作,并回答了诸多问题。同时还涉及工作流创建、模型能力及相关问题的探讨,以及通义千问相关应用及明天课程安排交流等内容。 总之,本地部署大模型并建立本地知识库需要按照上述步骤进行操作和配置,同时不断实践和探索,以达到理想的效果。
2025-04-10
如何做 deepseek 微调
要进行 DeepSeek 微调,以下是一些相关的知识和步骤: 1. 模型蒸馏微调:会带着大家复现模型的蒸馏和微调,并讲解相关知识。用 Deepseek RE Zero 蒸馏出带思考的数据,基于 Deepseek V3 微调,进行冷启动,再做强化学习,还从非公布模型提取微调数据,加上人类偏好,最终形成 R1。 2. 本地部署介绍:如果拥有云服务器,可以进行本地部署,了解满血版本地部署的实际情况。 3. 免费额度说明:在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 4. 平台服务差异:了解 DLC、DSW 和 EAS 等模型部署平台服务的差别。 5. 对于微调的全过程,建议阅读 Unsloth 笔记本和 HuggingFace 的《如何微调开放式 LLMs》,也可以使用《如何在一小时内阅读论文》作为指南。 6. 更加完善的训练说明,可直接阅读官方论文:DeepSeekAI《DeepSeekR1:Incentivizing Reasoning Capability in LLMs via Reinforcement Learning》https://arxiv.org/html/2501.12948
2025-04-08
怎么本地部署ai模型,并进行微调
以下是本地部署 AI 模型并进行微调的主要步骤: 1. 选择合适的部署方式:包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源:确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础:可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练:根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型:将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护:大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 此外,关于本地部署还有以下相关内容: 如果拥有云服务器如何进行本地部署,以及满血版本地部署的实际情况。 在 freely.aliyun.com 可领取 500 元免费额度,但有使用限制,不能部署满血版和较大的增流模型。 介绍了 DLC、DSW 和 EAS 等模型部署平台服务的差别。 会带着大家复现模型的蒸馏和微调,并讲解相关知识。 PaaS 平台支持多机分布式部署,满足推理性能要求,使用独占资源和专有网络,能一站式完成模型蒸馏。 登录 Pad 控制台,通过 model gallery 进行部署,如 Deepseek R1 模型,可选择 SG 浪或 Vim 推理框架,根据资源出价,部署后可在模型在线服务 EAS 查看状态。 介绍了模型 API 的调用方法,包括查找位置、获取 token 等,强调使用后要及时停止或删除服务以避免持续付费。 总的来说,部署和训练自己的 AI 模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-03-27
prompt 框架
以下是关于 prompt 框架的相关内容: 格式: 常见的格式包括 Markdown(兼容性强,适用于写公众号文章、百家号文章等)、无序列表、有序列表、表格(更清晰直观,适用于对比数据等)、图片(具有随机性,可搭配生成 PPT)、二维码(将链接以二维码图片展示)、Latex 公式(面对数学问题时使用,能渲染出美观的公式,但目前官网对于行内公式的渲染不稳定)、代码(适合程序员指定需要撰写的代码,也方便复制内容)、JSON 格式(ChatGPT 可以以结构化数据形式输出信息,方便应用程序处理和解析,常用于程序员开发应用程序调用 API 时)。 关键框架: ICIO 框架:包括指令(执行的具体任务)、背景信息(提供执行任务的背景和上下文)、输入信息(大模型需要用到的信息)、输出信息(明确输出的具体要求,如字数、风格、格式)。 BROKE 框架:通过 GPT 的设计提示提升整体反馈效率,包括提供足够背景信息、角色设定、目标明确、结果定义、调整。 CRISPIE 框架:包括能力和角色(期望大模型扮演的角色洞察,提供幕后洞察力、背景信息和上下文)、声明(简洁明了的说明希望完成的任务)、个性(回应的风格、个性或者方式)、实验(提供多个回答的示例)。 律师使用 Prompt 的建议框架及格式: CRISPE 框架: Capacity and Role(能力与角色):例如,你是一名专注于民商事法律领域的律师,擅长案例研究、法律条文检索以及案件策略分析。 Insight(洞察):提供背景信息和上下文,如处理一起复杂的合同纠纷案件,向 AI 提供案件的关键事实、相关法律以及案件涉及的背景。 Statement(陈述):直接明确期望 AI 完成的任务,如要求 AI 总结此案件中双方的诉求、检索法条、预测可能的判决结果。 Personality(个性):明确希望 AI 以什么风格或方式回答。 Experiment(举例)。 零样本思维链(Zero Shot Chain of Thought,ZeroshotCoT):研究了 CoT prompting 的后续发展,引入了一种简单的零样本提示方法。在问题结尾添加相关提示词,能让大语言模型生成回答问题的思维链,并从中提取出更准确的答案。
2025-04-10
分析程序员在AI能力上的不同维度,比如AI框架,AIPrompt等
以下是对程序员在 AI 能力上不同维度的分析,包括 AI 框架和 AI Prompt 等方面: AI 框架: PromptPal:专为 AI 领域中的初创公司和个人开发者设计的提示管理工具,是一个集中化平台,便于在 AI 项目中管理提示,实现协作和工作流程优化。具有本地部署和云原生、简易设置、数据库支持、SDK 支持、提示跟踪与分析、协作工具等特点。开发指向: ChainForge:开源的可视化编程环境,专门用于测试大型语言模型(LLMs)的提示。允许用户进行快速而有效的提示想法测试和变化,具有多模型测试、响应质量比较、评估指标设置、多对话管理等特点。开发指向: AI Prompt: Promptknit:为 AI Prompts 测试提供服务的平台,可能提供工具和资源来帮助用户设计、测试和优化 AI 模型的提示。网站: 对于律师等法律人写好 Prompt 的建议: 明确 Prompt 是给人工智能(AI)系统提供的信息或问题,用来引导其产生特定回答或执行特定任务。 建议框架及格式:CRISPE 包括 Capacity and Role(能力与角色)、Insight(洞察)、Statement(陈述)、Personality(个性)、Experiment(举例)。例如,在处理合同纠纷案件时,为 AI 赋予角色和能力,提供背景信息和上下文,明确期望其完成的任务,设定回答风格等。
2025-04-09
提示词框架
以下是关于提示词框架的相关内容: 一、Vidu Prompt 基本构成 1. 提示词基础架构 主体/场景 场景描述 环境描述 艺术风格/媒介 调整句式和语序,避免主体物过多/复杂、主体物分散的句式描述。 避免模糊的术语表达,尽可能准确。 使用更加流畅准确的口语化措辞,避免过度文学化的叙述。 丰富、准确和完整的描述才能生成特定艺术风格、满足需求的视频。 2. 提示词与画面联想程度的说明 为了帮助更好地理解,使用单帧图像作为例子介绍提示词与画面联想的关系。 基础词:玻璃桌上的咖啡杯,杯子外面写着单词 LOVE。 适度联想扩充:花园里(具体的位置描述)的透明(材质描述)玻璃桌上的咖啡杯,杯子外面写着单词 LOVE,周围满是盛开的鲜花(具体的位置描述/环境描述),和煦的阳光洒满整个花园(环境描述),Claude Monet(艺术家风格),印象派风格(艺术流派风格)。 联想关键点: 具体详实的位置描述/环境描述:笼统来讲就是在进行构图,可以帮助构建画面的基本呈现效果。 艺术风格描述:进一步提升效果和氛围,统一画面风格。 二、小七姐:Prompt 喂饭级系列教程小白学习指南(二) 如果拿到由四个词语组成的提示词框架无从下手,可以这样做: 恭喜你,写出了第一个提示词,它是: 请告诉我如何用下列四个词编写一个框架性的提示词(prompt)? 情境: 任务: 行动: 结果: 请回忆写出这条提示词的过程。 最后复习本节课的三步走: 1. 懂原理 2. 找需求 3. 用框架 下课啦~ 我是 prompt 学习者和实践者小七姐,欢迎链接我交流 prompt 相关知识:se7en319
2025-04-01
形成指令让AI根据我的论文框架写论文
以下是为您提供的让 AI 根据论文框架写论文的相关指导: 1. 提供详细的背景信息:如您的个人经历、研究主题等,类似于“我来自西班牙巴塞罗那。尽管我的童年经历了一些创伤性事件,比如我 6 岁时父亲去世,但我仍然认为我有一个相当快乐的童年……”这样具体且全面的描述。 2. 结构化组织内容:使用编号、子标题和列表来使论文条理清晰,例如规定概述内容解读结语的结构,或者分标题阐述不同部分。 3. 明确文章结构:包括开门见山且能引起目标群体悬念的标题,说清楚要解决的问题及背景、可能导致的损失的第一部分,以案例引入的第二部分,对案例进一步分析的第三部分,以及给出具体操作建议的第四部分。 4. 丰富细化内容:先让 AI 写故事概要和角色背景介绍并做修改,然后一段一段进行细节描写,可采用让 AI 以表格形式输出细节描述的技巧,确保内容具体且前后一致。 5. 注意语言风格:可以自己定义,也可以根据文章生成对应语言风格关键词让 AI 遵循。 6. 遵循相关要求:比如某些比赛对作品的字数、修改限制等。 需要注意的是,虽然可以利用 AI 辅助写作,但并非提倡这是道德的使用方式。同时,如果是接收方,最好为组织准备好迎接各种 AI 生成的内容。
2025-03-30
问题定义: 1. 核心问题陈述:创作一份个人参赛的、以光伏业务中财务工作与AI结合进行业务赋能为主题的展示类参赛方案框架。 2. 关键上下文信息:公司举办AI创新大赛,个人参赛,主题方向为工作和AI结合限定在业务赋能,公司业务是光伏领域。 3. 问题的具体范围界定:聚焦光伏业务中财务工作与AI结合进行业务赋能的展示方案框架创作。 答案要求: 1. 内容范围: - 必须包含:整体参赛方案思路、光伏财务业务与AI结合的具体方向、展示方案大致框架。
很抱歉,您提供的知识库内容中没有与光伏业务中财务工作与 AI 结合进行业务赋能的参赛方案框架相关的信息。但以下是为您生成的一个可能的参赛方案框架示例: 一、整体参赛方案思路 本次参赛方案旨在探索如何将 AI 技术应用于光伏业务中的财务工作,以实现更高效、精准和智能化的业务赋能。通过深入分析光伏行业的特点和财务工作的需求,结合先进的 AI 技术,提出创新的解决方案,提升财务工作的效率和质量,为公司的光伏业务发展提供有力支持。 二、光伏财务业务与 AI 结合的具体方向 1. 财务预测与分析 利用机器学习算法对光伏项目的成本、收益进行预测,为投资决策提供数据支持。 分析市场趋势和政策变化对财务状况的影响,提前制定应对策略。 2. 风险评估与管理 运用大数据和人工智能技术,对光伏项目的风险进行实时监测和评估。 建立风险预警模型,及时发现潜在的财务风险。 3. 成本优化与控制 通过智能算法优化供应链管理,降低采购成本。 分析生产过程中的能耗数据,实现成本的精细化控制。 4. 财务报表自动化生成与审计 利用自然语言处理技术自动生成财务报表,提高工作效率。 运用 AI 辅助审计,提高审计的准确性和效率。 三、展示方案大致框架 1. 项目背景与目标 介绍光伏行业的发展现状和公司的业务情况。 阐述将财务工作与 AI 结合的目标和意义。 2. 技术方案与实现 详细介绍所采用的 AI 技术和算法。 展示技术方案的实现过程和关键步骤。 3. 应用案例与效果 分享实际应用案例,展示 AI 在财务工作中的具体应用场景。 分析应用效果,如成本降低、效率提升、风险控制等方面的成果。 4. 未来展望与挑战 展望 AI 在光伏财务领域的未来发展趋势。 探讨可能面临的挑战及应对策略。 5. 总结与结论 总结方案的核心内容和创新点。 强调对公司光伏业务的价值和贡献。 以上框架仅供参考,您可以根据实际情况进行进一步的细化和完善。
2025-03-28
详细讲解一下ragflow框架,同时对比一下ragflow与常规知识库有什么优势,在graphrag的实现方面ragflow又是怎么做的?
RAG(检索增强生成)是一种有效的解决方案,下面为您详细讲解: RAG 工作流程: 1. 检索(Retrieval):如同在图书馆中,系统会从知识库或文档集合中找出与用户问题相关的内容。 2. 增强(Augmented):对检索到的信息进行筛选和优化,挑出最相关和有用的部分。 3. 生成(Generation):将整合的信息生成自然流畅、易于理解的回答。 RAG 类似于一个超级智能的图书馆员,综合起来: 1. 检索:从庞大知识库中找到相关信息。 2. 增强:筛选优化确保找到最相关部分。 3. 生成:整合信息给出连贯回答。 RAG 的优势: 1. 成本效益:相比训练和维护大型专有模型,实现成本更低。 2. 灵活性:能利用多种数据源,包括结构化和非结构化数据,迅速适应不同领域和变化的数据。 3. 可扩展性:随时增加或更新知识库内容,无需重新训练模型。 RAG 与常规知识库的对比优势: 常规知识库可能存在知识更新不及时、数据来源单一等问题。而 RAG 能够从多种数据源获取信息,并且可以根据用户的实时需求进行检索和优化,生成更贴合需求的回答。 在 GraphRAG 的实现方面,目前提供的内容中未明确提及相关具体实现方式。 同时需要注意的是,RAG 也存在一些缺点,比如相比于专有模型的方案,回答准确性可能不够。
2025-03-28
这个网站的作用是什么?是通过这个网站更好的使用训练AI吗?
WaytoAGI 网站具有以下功能: 1. 和 AI 知识库对话:您可以在此询问任何关于 AI 的问题。 2. AI 网站:集合了精选的 AI 网站,可按需求找到适合您的工具。 3. AI 提示词:集合了精选的提示词,能复制到 AI 对话网站使用。 4. 知识库精选:将每天知识库的精华内容呈现给大家。 总之,WaytoAGI 网站和 WaytoAGI 知识库相互独立又有关联,希望成为您学习 AI 路上的好助手。
2025-04-13
想自学ai训练师 推荐哪个视频去学习
以下是为您推荐的自学 AI 训练师的视频: 1. 3 月 26 日|自由讨论|离谱视频切磋大会 猫先生介绍自己的背景和擅长领域 AI 学习与实践的重要性 AI 交流会:分享项目经验和技能 讨论比赛规则和资源分配 AI 工具学习与合作 广州 AI 训练师叶轻衣分享使用 AI 工具的经验和想法 组队提升工作效率 AI 技术在 3D 动画制作中的应用与优势 链接:https://waytoagi.feishu.cn/minutes/obcnc915891t51l64uyonvp2?t=0 2. AI 大神 Karpathy 再发 LLM 入门介绍视频 神经网络训练的目标:训练神经网络的目标是让模型学习 token 在序列中彼此跟随的统计关系,即预测给定上下文(token 序列)后,下一个最有可能出现的 token。 Token 窗口:训练时,模型从数据集中随机抽取固定长度的 token 窗口(例如 8000 个 token)作为输入。 神经网络的输入与输出:输入为 Token 序列(上下文),输出为预测下一个 token 的概率分布,词汇表中每个 token 都有一个概率值。 随机初始化与迭代更新:神经网络初始参数是随机的,预测也是随机的。训练过程通过迭代更新参数,调整预测结果,使其与训练数据中的统计模式相匹配。 损失函数与优化:训练过程使用损失函数来衡量模型预测与真实 token 的差距。优化算法(如梯度下降)用于调整参数,最小化损失函数,提高预测准确率。 神经网络内部结构:Transformer 包含注意力机制和多层感知器等组件,能够有效地处理序列数据并捕捉 token 之间的复杂关系。 链接:无
2025-04-12
想自学ai训练师
如果您想自学成为 AI 训练师,以下是一些相关的知识和建议: 一、AI 训练的基本概念 训练是指通过大数据训练出一个复杂的神经网络模型。这需要使用大量标记过的数据来训练相应的系统,使其能够适应特定的功能。训练过程需要较高的计算性能,能够处理海量的数据,并具有一定的通用性,以便完成各种各样的学习任务。 二、相关领域的知识 1. 机器学习:机器学习是人工智能的一个分支,是实现人工智能的途径之一,涉及概率论、统计学、逼近论、凸分析、计算复杂性理论等多门学科。 2. 自然语言处理:自然语言(NLP)认知和理解是让电脑把输入的语言变成有意思的符号和关系,然后根据目的再处理。自然语言生成系统则是把计算机数据转化为自然语言,是人工智能和语言学领域的分支学科。 三、学习资源和实践 您可以参考以下的一些资源和实践方式: 1. 参加相关的线上交流会,例如 3 月 26 日的自由讨论活动,其中会分享项目经验、技能以及使用 AI 工具的经验和想法。 2. 了解一些健身的 AI 产品,如 Keep(https://keep.com/)、Fiture(https://www.fiture.com/)、Fitness AI(https://www.fitnessai.com/)、Planfit(https://planfit.ai/)等,虽然这些主要是健身领域的应用,但也能帮助您了解 AI 在不同场景中的应用和创新。 请注意,以上内容由 AI 大模型生成,请仔细甄别。
2025-04-12
怎么用把AI训练成自己的东西?
要将 AI 训练成自己的东西,可以参考以下方法: 1. 像马斯克提到的,对于公开的推文数据可以合理使用,但不能使用私人的东西进行训练。同时,要注重数据的质量和使用方式,高质量的数据对于训练效果至关重要。 2. 张梦飞的方法中,例如部署 LLama Factory 时,需要添加选中“identity”数据集,将训练轮数改成 15 等,并通过一系列操作进行训练和测试。但需要注意的是,训练大模型是复杂的过程,数据集和训练参数都会影响最终效果,需要反复调试和深入学习实践。 3. 在写作方面,我们可以根据自身需求选择人类驱动为主,利用 AI 进行修改完善,或者先由 AI 生成内容再进行修改以符合自己的风格。
2025-04-11
如何训练一个AI 阅读教练
训练一个 AI 可以类比为培养一位职场新人,主要包括以下三个阶段: 1. 规划阶段:明确目标 确定 AI 的具体任务,比如结构化外文精读等。 将任务拆解为可管理的子任务。 设计每个子任务的执行方法。 2. 实施阶段:实战指导 搭建工作流程。 为每个子任务设置清晰的操作指南。 像指导新员工一样,手把手引导 AI 完成任务,并及时验证其输出质量。 3. 优化阶段:持续改进 通过反复测试和调整,不断优化 AI 的性能。 调整工作流程和 Prompt 配置,直到 AI 能稳定输出高质量的结果。 当前大模型在处理多步骤复杂任务时存在明显局限,比如在“数据分析图表、剧情游戏”或“本文结构化外文精读”等任务中,仅依靠单一 Prompt 指令难以稳定执行,现阶段的 AI 更像缺乏独立解决问题能力的职场新人,需要遵循指引和给定的流程才能完成特定任务。如果您已经完全了解上述内容,不妨自己设定一个任务目标,动手构建一个专属于自己的 AI 。
2025-04-11
模型训练的基本名词和方法
以下是关于模型训练的基本名词和方法的介绍: 基本名词: 1. 过拟合&欠拟合:过拟合和欠拟合都是不好的现象,需要加以控制以让模型达到理想效果。解决方法包括调整训练集、正则化和训练参数等,过拟合可减少训练集素材量,欠拟合则增加训练集素材量。 2. 泛化性:泛化性不好的模型难以适应其他风格和多样的创作。可通过跑 lora 模型生图测试判断泛化性,解决办法与过拟合和欠拟合类似,从训练集、正则化、训练参数等方面调整。 3. 正则化:是解决过拟合和欠拟合情况、提高泛化性的手段,给模型加规则和约束,限制优化参数,有效防止过拟合,提高模型适应不同情况的表现和泛化性。 方法: 1. 全面充分采集训练素材:例如在角色训练素材中,应包含各种角度、表情、光线等情况的素材,确保模型具有较好泛化性。 2. 图像预处理:对训练素材进行分辨率调整、裁切操作,并对训练集进行打标签处理。 3. 参数调优:尽量将训练时长控制在半小时左右,过长易导致过拟合,通过调整参数控制时长。 4. 观察学习曲线:通过观察学习曲线来调整训练素材和参数。 5. 过拟合&欠拟合处理:测试训练好的模型,观察过拟合和欠拟合问题,进一步通过调整训练素材和正则化等手段优化。 此外,在模型训练中还需注意: 1. 数据集获取渠道:可通过网上收集、购买、使用无版权问题的如古画等,原则是根据生成图的需求找对应数据集,要清晰、主体元素干净、风格统一。 2. 数据集处理:包括基础处理如裁剪保证清晰和分辨率,更重要的是写标注。 3. 设置模型触发词:可自定义,完整形式可以是一句话,建议以王 flags 模型为主。 4. 统一标注风格与应用场景:例如未来高科技 3D 天然风格,用于互联网首页图像等,并概括主题内容、描述物体特征等。 5. 利用 GPT 辅助描述并人工审核:让 GPT 按要求描述,人工审核修改。 6. 模型训练的准备与流程:完成数据集描述后进入训练流程,选择模型训练分类和数据集,创建并上传数据集压缩包,注意数据名与图片命名一致。选择训练模式和参数,新手选用普通基础模式,训练集质量重要,训练参数中总步数与训练集图片数量相关,触发词设定要避免概念混乱。
2025-04-09
如何本地部署大模型,如何选择是否使用云服务商
以下是关于本地部署大模型以及选择是否使用云服务商的相关内容: 本地部署大模型的主要步骤: 1. 选择合适的部署方式,包括本地环境部署、云计算平台部署、分布式部署、模型压缩和量化、公共云服务商部署等,根据自身的资源、安全和性能需求进行选择。 2. 准备训练所需的数据和计算资源,确保有足够的训练数据覆盖目标应用场景,并准备足够的计算资源,如 GPU 服务器或云计算资源。 3. 选择合适的预训练模型作为基础,可以使用开源的预训练模型如 BERT、GPT 等,也可以自行训练一个基础模型。 4. 针对目标任务进行模型微调训练,根据具体应用场景对预训练模型进行微调训练,优化模型结构和训练过程以提高性能。 5. 部署和调试模型,将训练好的模型部署到生产环境,对部署的模型进行在线调试和性能优化。 6. 注意安全性和隐私保护,大模型涉及大量数据和隐私信息,需要重视安全性和合规性。 以 SDXL 为例的本地部署步骤: 1. SDXL 的大模型分为两个部分,base+refiner 是必须下载的,base 是基础模型,用于文生图操作;refiner 是精炼模型,用于对生成的模型进行细化,生成细节更丰富的图片。还有一个配套的 VAE 模型,用于调节图片的画面效果和色彩。 2. 想要在 webUI 中使用 SDXL 的大模型,首先要在秋叶启动器中将 webUI 的版本升级到 1.5 以上。 3. 将模型放入对应的文件夹中,base 和 refiner 放在“……\\sdwebuiakiv4.2\\models\\Stablediffusion”路径下;vae 放在“……\\sdwebuiakiv4.2\\models\\VAE”路径下。完成之后,启动 webUI,就可以在模型中看到 SDXL 的模型。 以 LLM 大语言模型为例的本地部署步骤: 1. 下载并安装 Ollama,点击进入根据电脑系统下载 Ollama:https://ollama.com/download ,下载完成后,双击打开,点击“Install”,安装完成后,将下方地址复制进浏览器中。如果出现下方字样,表示安装完成:http://127.0.0.1:11434/ 。 2. 下载 qwen2:0.5b 模型(0.5b 是为了方便测试,下载快,自己设备充足的话,可以下载更大的模型)。如果是 windows 电脑,点击 win+R,输入 cmd,点击回车;如果是 Mac 电脑,按下 Command(⌘)+Space 键打开 Spotlight 搜索,输入“Terminal”或“终端”,然后从搜索结果中选择“终端”应用程序。复制相关命令行,粘贴进入,点击回车,等待下载完成。 总的来说,部署大模型需要综合考虑多方面因素,包括部署方式、数据准备、模型训练、部署调试以及安全性等。需要根据具体需求选择合适的方法,并注意优化各个环节以提高模型性能和应用效果。
2025-04-14
我要根据PPT开发一个网页,请详细提供操作步骤和选择哪一个AI工具更合适。
以下是根据 PPT 开发网页的详细操作步骤以及适用的 AI 工具: 一、生成 PDF 1. 将您的文件转换为 PDF 格式,其他文件格式也可行,但 PDF 效果更佳。 2. 若希望在文章中加入图片,需将图片转换为 Markdown 格式。 网络图片:直接复制图片的 URL,右键图片选择复制 URL,然后用 Markdown 格式写入文档。 自己的图片:使用图床服务(如 https://sm.ms/)托管图片,生成公链。 3. 插入视频:先将本地视频上传到公网(如 B 站),在视频页面寻找“分享”按钮,点击“嵌入”或“嵌入代码”选项获取 URL,用 Markdown 格式写入。 二、适用的 AI 工具 1. 爱设计 网址:https://ppt.isheji.com/?code=ysslhaqllp&as=invite 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 2. MindShow 网址:https://www.mindshow.fun//home 输入大纲和要点: 导入大纲和要点 输入主题自动生成大纲和要求 选择模版并生成 PPT 导出 3. Process ON 网址:https://www.processon.com/ 输入大纲和要点: 导入大纲和要点: 手动复制(相对耗时) 导入方式:复制最终大纲内容到本地 txt 文件,将后缀改为.md(若看不见后缀可自行搜索开启),打开 Xmind 软件导入 md 文件,在 Process ON 导入 Xmind 文件。 输入主题自动生成大纲和要求:新增思维导图,输入主题点击 AI 帮我创作。 选择模版并生成 PPT:点击下载,选择导入格式为 PPT 文件,选择模版再点击下载。若喜欢使用且无会员,可在某宝买一天会员。
2025-04-13
低代码平台选择
以下是关于低代码平台选择的相关内容: 在实现工作流方面,如 0 基础手搓 AI 拍立得,选择了 Coze 平台实现零代码版本的工作流。搭建流程时主要关注上传图片(将本地图片转换为在线 OSS 存储的 URL 以便调用)、插件封装(将图片理解大模型和图片 OCR 封装为工作流插件)等步骤。 在搭建智能微信客服方面,实操有三大步骤: 找到高级下开场白,点击展开,填写开场白文案、开场白预置问题。 勾选用户问题建议,在 Bot 回复后根据 Prompt 提供最多 3 条用户提问建议。 添加语音选择,让其不仅会写,还能通过语音交流。 点击“发布”,可选择发布平台,如 Bot Store(Bot 会出现在 Coze Bot 商店中获取更多曝光和流量)、豆包(一键发布到豆包 App 随时随地对话)、飞书(在飞书中直接@Bot 对话提高工作生产力)、微信客服(微信沟通更高效)、微信公众号(服务号和订阅号,服务号针对企业,订阅号运营主体可为企业或个人)、掘金(在掘金社区 AI 聊天室圈子与 Bot 互动)。重新注册微信客服和解绑后重新配置微信客服有相应流程。
2025-04-01
如何让AI帮我分析职业选择
以下是利用 AI 帮您分析职业选择的一些方法: 1. 利用“长远思考思维模型”: 职业目标和个人价值观的一致性:认清长期职业目标与个人价值观是否相符,工作应与生活目标和信念相协调,考虑未来几年内希望实现的目标,思考其如何反映核心价值观。 职业成长和学习机会:关注职业成长和持续学习,在不断变化的技术领域中保持竞争力,思考未来几年市场受欢迎的技能,通过学习提升职业价值。 生活和工作的平衡:考虑工作对个人生活的影响,包括家庭、健康和兴趣爱好,可持续的职业道路应支持整体生活质量。 适应性和灵活性:考虑市场和技术变化,拥有适应和灵活调整职业路径的能力,以利用新兴机会。 2. 借助 AI 模型模拟市场反应来辅助决策:例如,个人在做职业选择时让 AI 分析不同选择下职业发展的前景。但重要决定最终由人拍板,AI 作用在于提供依据和建议。这一过程中,人类的批判性思维不可或缺,需要对 AI 输出进行评估,筛选有意义部分,并纳入自主判断。 3. 突破常规思维,选择如“破束缚思维模型”:挑战现有的职业路径设想,探索非传统的职业道路或角色,考虑将技能应用于不同领域,不要局限于传统职业路径,考虑跨领域工作机会或开发新技能以适应不同职业角色。 综合这些思维模型,建议您在进行职业规划时,不仅考虑当前的职业机会和挑战,还要考虑长期的职业发展、个人兴趣和潜在的市场需求。同时,敢于突破常规,探索新的可能性,可能会为您的职业生涯带来意想不到的转机。
2025-03-31
降本增效的情况下建筑设计院自己开发AI和应用好现有的AI哪个选择更好
在降本增效的情况下,建筑设计院是自己开发 AI 还是应用现有的 AI,需要综合多方面因素来考虑。 现有的 AI 工具已经在很多领域带来了显著的优势,例如: 1. 提高效率:能够快速产生创意效果和设计方案。 2. 丰富设计效果:极大地丰富了设计自由度,实现各种创意。 3. 拓展工作流程:促使设计工作流程重新组合再造,拓展设计师的思维边界。 同时,也有一些专门针对建筑设计的现有 AI 工具,比如: 1. HDAidMaster:云端工具,在建筑、室内和景观设计领域表现出色,搭载自主训练的建筑大模型,软件 UI 和设计成果颜值在线。 2. Maket.ai:面向住宅行业,在户型和室内软装设计方面有 AI 技术探索,能根据输入需求自动生成户型图。 3. ARCHITEChTURES:AI 驱动的三维建筑设计软件,在住宅设计早期阶段可引入标准和规范约束设计结果。 4. Fast AI 人工智能审图平台:形成全自动智能审图流程,能实现建筑全寿命周期内信息的集成与管理。 然而,自己开发 AI 也有其潜在的好处,比如可以更精准地满足设计院的特定需求和业务特点。但开发 AI 需要投入大量的资源和时间,包括技术人才、资金、研发周期等。 综上所述,建筑设计院应根据自身的技术实力、资源状况、业务需求的独特性等因素来权衡选择。如果资源有限且现有工具能满足大部分需求,应用现有的 AI 可能是更好的选择;如果对特定功能有极高的要求且有足够的能力和资源支持,自己开发 AI 也未尝不可。
2025-03-23
做一个AI自媒体如何从零起步?选择什么方式?
要从零起步做一个 AI 自媒体,您可以参考以下方式: 1. 明确自身定位和目标受众:确定您的自媒体专注于 AI 的哪个领域,例如 AI 技术解读、AI 应用案例分享、AI 行业趋势分析等,并明确您希望吸引的受众群体。 2. 选择合适的平台:小红书和 B 站是不错的选择。小红书从种草平台逐渐变为知识社区,其知识属性适合 AI 创作者;B 站的用户活跃度也较高。 3. 内容创作: 初期可以从热门的 AI 话题入手,如过年时的剪纸、AI 相关视频等,以吸引流量和涨粉。 注重内容的独特性和价值,避免使用妖魔鬼怪类内容,以免后期难以扭转账号标签。 对于小红书,能发视频就发视频,因为其视频 UI 界面改版且推送机制变化,后续可能重点发力视频。 4. 账号搭建: 设计有记忆点和视觉冲击力的头像。 选择独特的账号名称,能体现个人或内容特点。 撰写有哲理或引人思考的简介。 保持封面统一,具有账号属性,体现商业化。 5. 运营策略: 账号初期应追热点,对热门内容进行分析和跟风创作。 最终要赢得用户信任,增强其对推荐内容的关注度。 6. 变现方式: 通过官方蒲公英平台接单,但平台会收取 10%手续费。 接受主流媒体约稿,虽然稿费可能较低但有背书作用。 总之,做 AI 自媒体需要不断学习和探索,持续提供有价值的内容,逐步扩大影响力和商业价值。
2025-03-20