Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

我添加flux的模型后,在webui中要从哪里找到

Answer

在 webui 中找到添加的 flux 模型的方法如下: 首先,您可以安装 Civitai 助手插件。如果您上不了 C 站,可以去我的百度云盘里下载,然后放在“……\sd-webui-aki-v4\extensions”路径文件夹下。安装完成后,重启 webUI,就可以在上方的标签选项卡中找到这个插件。 另外,下载模型后需要将之放置在指定的目录下,不同类型的模型放置目录不同:

  1. 大模型(Ckpt):放入 models\Stable-diffusion。
  2. VAE 模型:一些大模型需要配合 vae 使用,对应的 vae 同样放置在 models\Stable-diffusion 或 models\VAE 目录,然后在 webui 的设置栏目选择。
  3. Lora/LoHA/LoCon 模型:放入 extensions\sd-webui-additional-networks\models\lora,也可以在 models/Lora 目录。
  4. Embedding 模型:放入 embeddings 目录。

模型的类型可以通过Stable Diffusion 法术解析检测。安装 Civitai 助手插件后,它可以自动扫描您的所有文件,如果您的模型是从 C 站下载的,它会帮您自动匹配好缩略图。点击刷新旁边的按钮,再把鼠标放在模型的名字上,可以看见新的四个图标:?:用当前生成图替换为预览图;?:在新标签页打开这个模型的 Civitai 页面;?:一键添加这个模型的触发词到关键词输入框;?:一键使用这个模型预览图所使用的关键词。

Content generated by AI large model, please carefully verify (powered by aily)

References

【SD】模型的缩略图怎么搞?Civitai 助手来帮忙

再介绍一款插件吧,也是一款我觉得玩Stable Diffusion必装的插件,就是——Civitai助手。大家可以去C站搜索下载,如果你上不了C站可以去我的百度云盘里下载,然后放在这个路径文件夹下“……\sd-webui-aki-v4\extensions”。安装完成后,重启webUI,就可以在上方的标签选项卡中找到这个插件。我们来看一下这个助手可以帮我们做什么,我挑几个重要的功能讲一下。第一个功能就是下载预览图,它可以自动扫描你的所有文件,如果你的模型是从C站下载的,它就会帮你自动匹配好缩略图。当然,如果是从其他地方下载的模型,就不一定能匹配成功,你就需要用我们刚才讲到的方法去手动添加了。点击刷新旁边的这个按钮,再把鼠标放在模型的名字上,可以看见新的四个图标。?:用当前生成图替换为预览图?:在新标签页打开这个模型的Civitai页面?:一键添加这个模型的触发词到关键词输入框?:一键使用这个模型预览图所使用的关键词第二个功能就是下载文件,当你看到C站上你喜欢的模型。

【ComfyUI】Blender+Stable Diffusion!少年啊,这盛世如你所愿!(附中文汉化插件)

打开节点树的列表,可以看到我们熟悉的文生图、图生图以及controlnet等常见工作流。我们选择文生图,打开发现还有一些更细化的预设工作流选项。再看看controlnet中的工作流预设。还有一些根据插件整理的工作流,可谓是相当丰富了。我们就先随便选择一个“文生图”中的“基础+自定VAE”吧。选好之后,点击“替换节点树”。界面中就出现了已经连接好的工作流节点(如果没看到,就按一下home键),包括大模型、clip、vae、正反提示词、尺寸,采样器等所有我们在webUI中都已经熟悉的参数,而且全都是中文面板。打开模型节点,可以看到我们webUI中的模型全部都在。这个地方不知道怎么操作的朋友,可以看我的上一篇[【ComfyUI】本地部署ComfyUI上手指南,我就喜欢连连看](http://mp.weixin.qq.com/s?__biz=MzkzMzIwMDgxMQ==&mid=2247487895&idx=1&sn=aa21eede16dfe4bde7e0e93e353f7357&chksm=c2514753f526ce451175f654a93f48b526fc6de3e3b1564b218db41f7e3f99df5a84bb887043&scene=21#wechat_redirect)。

SD新手:入门图文教程

下载模型后需要将之放置在指定的目录下,请注意,不同类型的模型应该拖放到不同的目录下。模型的类型可以通过[Stable Diffusion法术解析](https://link.zhihu.com/?target=https%3A//spell.novelai.dev/)检测。大模型(Ckpt):放入models\Stable-diffusionVAE模型:一些大模型需要配合vae使用,对应的vae同样放置在models\Stable-diffusion或models\VAE目录,然后在webui的设置栏目选择。Lora/LoHA/LoCon模型:放入extensions\sd-webui-additional-networks\models\lora,也可以在models/Lora目录Embedding模型:放入embeddings目录

Others are asking
开源flux模型如何快速使用
以下是关于开源 Flux 模型快速使用的方法: 1. 模型的下载: 如果因为环境问题,可以在网盘中下载。 siglipso400mpatch14384(视觉模型):siglip 由 Google 开发的视觉特征提取模型,负责理解和编码图像内容。工作流程包括接收输入图像、分析图像的视觉内容并将这些视觉信息编码成一组特征向量。打开 ComfyUI\models\clip,在地址栏输入 CMD 回车,打开命令行,输入下面的命令拉取模型(也可以在网盘里下载)。 image_adapter.pt(适配器):连接视觉模型和语言模型,优化数据转换。工作流程包括接收来自视觉模型的特征向量、转换和调整这些特征,使其适合语言模型处理。通过 https://huggingface.co/spaces/fancyfeast/joycaptionprealpha/tree/main/wpkklhc6 下载,放到 models 的 Joy_caption 文件夹里,如果该文件夹不存在,就新建一个。 MetaLlama3.18Bbnb4bit(语言模型):大型语言模型,负责生成文本描述。工作流程包括接收经过适配器处理的特征、基于这些特征生成相应的文本描述、应用语言知识来确保描述的连贯性和准确性。打开 ComfyUI\models\LLM,地址栏输入 CMD 回车,在命令行里面输入下面命令。 2. 下载地址: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 准备了夸克和百度的网盘链接,方便部分同学下载: flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,速度会快很多,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 3. 工作流下载: 最后我们再下载 dev 的工作流: 。或者下面官方原版的图片链接,图片导入 comfyUI 就是工作流:https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png 。我们打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。
2025-04-08
我现在是学了一段时间的comfyui+flux,接下来准备学Python开发comfyui节点、对接模型,这样学下去方向有没有问题呢
您学习 ComfyUI 和 Flux 一段时间后准备学习 Python 开发 ComfyUI 节点并对接模型,这个方向是可行的。以下是一些相关的知识和要点供您参考: 工作流方面: 工作流节点可直接拖动单个节点到任意位置,也可按住 Control 键并用鼠标左键滑框选中多个节点,再按 Shift 键一起拖动。 选中节点后右键新建组,可修改组名、颜色等,组被覆盖时可直接拖动组。 选中节点后右键选择对齐方式,如顶部对齐、左边对齐等。 第三方节点的安装方式包括在 customer NODE manager 中安装、在 GitHub 上复制链接安装、通过终端输入指令安装、在秋叶启动器的版本管理中安装。 可通过 group by Parser 节点控制组,也可通过按住节点按 control b 跳过或按 control m 终止执行。 模型方面: 噪声强度由种子调节,种子固定噪声分布方式,噪声与 CLIP 无关,增大噪声设置值会增强模型对图片重绘的程度。 模型版本的提示词差异:1.5 以 tag 为主,XL 论文称以自然语言为主,但实际使用中因模型微调情况可能仍需用 tag。 Flux 模型有时生成黑图,可能有修复方案,需自行查询。图像生成结果为空,可能是 VAE 编码器与大模型未连接,调整连接后问题解决。 安装方面: 自动打标 joy_caption 副本的节点安装地址为 D:\\ComfyUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes。 安装步骤包括:(Comfyui evn python.exe)python m pip install rrequirements.txt 或点击 install_req.bat,注意 transformers 版本不能太低。 下载模型或者运行 ComfyUI 自动下载模型到合适文件夹,如从 https://huggingface.co/unsloth/MetaLlama3.18Bbnb4bit 下载并放到 Models/LLM/MetaLlama3.18Bbnb4bit 文件夹内。 新版的 PuLID 解决了模型污染的问题,使用新版的节点需要禁用或者删除之前的 PuLID 节点,不然可能会有冲突问题。模型放在 ComfyUI\\models\\pulid 文件夹里面,注意用新版的。 如果使用 PuLID,还需要安装 EVA CLIP 等模型。
2025-03-21
flux lora训练
以下是关于 Flux 的 Lora 模型训练的详细步骤: 模型准备: 1. 下载所需模型,包括 t5xxl_fp16.safetensors、clip_l.safetensors、ae.safetensors、flux1dev.safetensors。 注意:不使用时存放位置随意,只要知晓路径即可。训练时建议使用 flux1dev.safetensors 版本的模型和 t5xxl_fp16.safetensors 版本的编码器。 下载脚本: 1. 网盘链接: 夸克网盘链接:https://pan.quark.cn/s/ddf85bb2ac59 百度网盘链接:https://pan.baidu.com/s/1pBHPYpQxgTCcbsKYgBi_MQ?pwd=pfsq 提取码:pfsq 安装虚拟环境: 1. 下载完脚本并解压。 2. 在文件中找到 installcnqinglong.ps1 文件,右键选择“使用 PowerShell 运行”。 3. 新手在此点击“Y”,然后等待 1 2 小时的下载过程,完成后提示是否下载 hunyuan 模型,选择 n 不用下载。 数据集准备: 1. 进入厚德云 模型训练 数据集:https://portal.houdeyun.cn/sd/dataset 2. 创建数据集: 在数据集一栏中,点击右上角创建数据集。 输入数据集名称。 可以上传包含图片 + 标签 txt 的 zip 文件,也可以上传只有图片的文件(之后可在 c 站使用自动打标功能),或者一张一张单独上传照片。 Zip 文件里图片名称与标签文件应当匹配,例如:图片名“1.png”,对应的达标文件就叫“1.txt”。 上传 zip 以后等待一段时间,确认创建数据集,返回到上一个页面,等待一段时间后上传成功,可点击详情检查,预览数据集的图片以及对应的标签。 Lora 训练: 1. 点击 Flux,基础模型会默认是 FLUX 1.0D 版本。 2. 选择数据集,点击右侧箭头,选择上传过的数据集。 3. 触发词可有可无,取决于数据集是否有触发词。 4. 模型效果预览提示词则随机抽取一个数据集中的标签填入。 5. 训练参数可调节重复次数与训练轮数,厚德云会自动计算训练步数。若不知如何设置,可默认 20 重复次数和 10 轮训练轮数。 6. 按需求选择是否加速,点击开始训练,会显示所需要消耗的算力。 7. 等待训练,会显示预览时间和进度条。训练完成会显示每一轮的预览图。 8. 鼠标悬浮到想要的轮次模型,中间会有个生图,点击会自动跳转到使用此 lora 生图的界面。点击下方的下载按钮则会自动下载到本地。 数据集存放位置:.Flux_train_20.4\\train\\qinglong\\train 运行训练:约 1 2 小时即可训练完成。 验证和 lora 跑图:有 ComfyUI 基础的话,直接在原版工作流的模型后面,多加一个 LoraloaderModelOnly 的节点就可以,自行选择 Lora 和调节参数。
2025-03-15
flux ae.sft放在哪个文件夹
在 ComfyUI 中,flux ae.sft 应放在 ComfyUI/models/vae/ 文件夹下。 Flux 模型在 ComfyUI 中的使用,需要将相关模型放在对应的目录下。具体来说,t5xxl_fp16.safetensors 放在 ComfyUI/models/clip/ 目录下,clip_l.safetensors 放在 ComfyUI/models/clip/ 目录下,ae.safetensors 放在 ComfyUI/models/vae/ 目录下,flux1dev.safetensors 放在 ComfyUI/models/unet/ 目录下。flux1dev.safetensors 是底模,ae.safetensors 是 VAE,clip_l.safetensors 和 t5xxl_fp16.safetensors 是关于文字语言编码。
2025-03-07
ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUI-aki(1)\ComfyUI-aki-v1.6\ComfyUI\models\checkpoints\flux1-dev-fp8.safetensors
很抱歉,根据您提供的错误信息“ERROR: Could not detect model type of: D:\AIruanjian\AIRUANJIAN\ComfyUIaki\ComfyUIakiv1.6\ComfyUI\models\checkpoints\flux1devfp8.safetensors”,暂时无法明确具体的问题原因。可能是模型文件格式不被识别,或者文件路径存在错误等。建议您检查文件的完整性和正确性,确保其符合相关软件的要求。
2025-03-07
midjourney_whisper_flux_lora_v01
以下是关于您提到的“midjourney_whisper_flux_lora_v01”的相关信息: 1. XLabsAI 发布了 6 个不同的 Lora,包括 Midjourney 风格、写实风格、动漫风格、迪斯尼风格、风景风格等,并提供了相应示例。 2. 文生图模型排序(从高到低):Imagen 3 真实感满分,指令遵从强;Recraft 真实感强,风格泛化很好,指令遵从较好(会受风格影响);Midjourney 风格化强,艺术感在线,但会失真,指令遵从较差;快手可图 影视场景能用,风格化较差;Flux.1.1 真实感强,需要搭配 Lora 使用;文生图大模型 V2.1L(美感版) 影视感强,但会有点油腻,细节不够,容易糊脸;Luma 影视感强,但风格单一,糊;美图奇想 5.0 AI 油腻感重;腾讯混元 AI 油腻感重,影视感弱,空间结构不准;SD 3.5 Large 崩。 3. 指定 AI 生图里的文字,有 9 种解决方案,其中 2 种快过时了。包括 Midjourney(v6 版本开始支持文字效果,主要支持英文,中文支持有限)、Ideogram(以图片嵌入文字能力闻名,2.0 模型能力得到进一步加强,支持复杂文本和多种艺术风格,文字与图像能够自然融合,支持英文,中文提示词可自动翻译为英文)、Recraft(V3 开始支持文本渲染能力,是目前唯一能在图像中生成长文本的模型,支持精确的文本位置控制,支持图像编辑功能,支持矢量图生成,支持英文,中文渲染能力较弱)、Flux(FLUX.1 是一款高质量的开源图像生成模型,支持复杂指令,支持文本渲染,支持图像编辑,生成图像的质量很高,主要支持英文)。
2025-03-07
comfyUI和webUI的区别
ComfyUI 和 WebUI 的区别主要体现在以下几个方面: ComfyUI: 简介:是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,将 stable diffusion 的流程拆分成节点,实现更精准的工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动速度快,出图速度快。 具有更高的生成自由度。 可以和 WebUI 共享环境和模型。 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要有清晰的逻辑。 生态没有 WebUI 多(常用的都有),但也有一些针对 ComfyUI 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档安装即可:https://github.com/comfyanonymous/ComfyUI 插件推荐: 插件安装管理器:https://github.com/ltdrdata/ComfyUIManager SDXL 风格样式:https://github.com/twri/sdxl_prompt_styler ComfyUI 界面汉化:https://github.com/AIGODLIKE/AIGODLIKECOMFYUITRANSLATION 中文提示词输入:https://github.com/AlekPet/ComfyUI_Custom_Nodes_AlekPet 蟒蛇八卦工具箱:https://github.com/pythongosssss/ComfyUICustomScripts 提示词权重调节器:https://github.com/BlenderNeko/ComfyUI_AD WebUI: 采样器与调度器:在 ComfyUI 中,采样器与调度器分开,而在 WebUI 中的采样方法是把两者合并在一起。ComfyUI 通过采样器+调度器组合的方式与 WebUI 中的一致,一般选择 karras 调度器效果较好。 在插件安装方面,WebUI 有较好的用户界面,安装插件后可直观看到并使用;而 ComfyUI 安装插件后可能看不到,需通过节点连接才能感受到其功能。
2025-03-12
comfyUi与webui的区别
ComfyUI 与 WebUI 的区别如下: ComfyUI 简介: 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将流程拆分成节点,实现更精准工作流定制和完善的可复现性。 优势: 对显存要求相对较低,启动和出图速度快。 生成自由度更高。 可以和 WebUI 共享环境和模型。 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势: 操作门槛高,需要清晰逻辑。 生态不如 WebUI 丰富,但也有针对其开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 采样器与调度器: 在 ComfyUI 中,采样器与调度器分开,不同于 WebUI 中将两者合并。ComfyUI 通过采样器+调度器组合的方式与 WebUI 中的一致,选择 karras 调度器一般效果较好。 插件: 插件安装管理器:https://github.com/ltdrdata/ComfyUIManager SDXL 风格样式:https://github.com/twri/sdxl_prompt_styler ComfyUI 界面汉化:https://github.com/AIGODLIKE/AIGODLIKECOMFYUITRANSLATION 中文提示词输入:https://github.com/AlekPet/ComfyUI_Custom_Nodes_AlekPet 蟒蛇八卦工具箱:https://github.com/pythongosssss/ComfyUICustomScripts 提示词权重调节器:https://github.com/BlenderNeko/ComfyUI_AD 在 WebUI 中安装插件能直观看到并使用,因其有良好用户界面;而 ComfyUI 安装插件后可能看不到,需通过节点连接感受其功能,安装方法是将解压好的文件夹放入“E:\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes”目录,然后重新启动。
2025-03-06
RuntimeError: Couldn't clone Stable Diffusion. Command: "git" clone --config core.filemode=false "https://github.com/Stability-AI/stablediffusion.git" "/Users/lichenhui/stable-diffusion-webui/repositories/stable-diffusion-stability-ai" Error code: 12
以下是关于您遇到的“RuntimeError: Couldn't clone Stable Diffusion”错误的分析和解决建议: 这个错误通常表示在克隆 Stable Diffusion 时出现问题。可能的原因包括: 1. 库的某些文件或依赖项已更改或已移除,导致无法找到所需的提交。 2. Git 存储库的状态不正确。 3. 网络连接存在问题。 解决方法如下: 1. 尝试清除本地库并重新克隆 Stable Diffusion,然后再次运行代码。 2. 运行以下命令来检查网络连接:ping files.pythonhosted.org
2025-02-12
我有一张图像,我要如何用stable Diffusion给它添加噪音。我是一个小白,请给出详细的步骤,用webui来操作。
以下是使用 WebUI 为图像添加噪音的详细步骤: 1. 首先,了解 Stable Diffusion 的加噪原理。从数据集中选择一张干净样本,然后用 random 函数生成 0 3 共 4 种强度的噪声,在每次迭代中随机选择一种强度的噪声添加到干净图片上,完成图片的加噪流程。 2. 在训练过程中,对干净样本进行加噪处理,采用多次逐步增加噪声的方式,直至干净样本转变成为纯噪声。 3. 加噪过程中,每次增加的噪声量级可以不同,假设存在 5 种噪声量级,每次都可以选取一种量级的噪声,以增加噪声的多样性。 4. 与图片生成图片的过程相比,在预处理阶段,先把噪声添加到隐空间特征中。通过设置去噪强度(Denoising strength)控制加入噪音的量。如果去噪强度为 0 ,则不添加噪音;如果为 1 ,则添加最大数量的噪声,使潜像成为一个完整的随机张量。若将去噪强度设置为 1 ,就完全相当于文本转图像,因为初始潜像完全是随机的噪声。
2024-11-18
stablediffusion在线webui如何开发
开发 Stable Diffusion 在线 Web UI 可以按照以下步骤进行: 1. 安装必要的软件环境: 安装 Git 用于克隆源代码。 安装 Python 3.10.6 版本,确保勾选“Add Python 3.10 to PATH”选项。 安装 Miniconda 或 Anaconda 创建 Python 虚拟环境。 2. 克隆 Stable Diffusion Web UI 源代码: 打开命令行工具,输入命令 git clone https://github.com/AUTOMATIC1111/stablediffusionwebui.git ,将源代码克隆到本地目录。 3. 运行安装脚本: 进入 stablediffusionwebui 目录,运行 webuiuser.bat 或 webui.sh 脚本,它会自动安装依赖项并配置环境。等待安装完成,命令行会显示 Web UI 的访问地址。 4. 访问 Web UI 界面: 复制命令行显示的本地 Web 地址,在浏览器中打开,即可进入 Stable Diffusion Web UI 的图形化界面。 5. 学习 Web UI 的基本操作: 了解 Web UI 的各种设置选项,如模型、采样器、采样步数等。尝试生成图像,观察不同参数对结果的影响。学习使用提示词(prompt)来控制生成效果。 6. 探索 Web UI 的扩展功能: 了解 Web UI 支持的各种插件和扩展,如 Lora、Hypernetwork 等。学习如何导入自定义模型、VAE、embedding 等文件。掌握图像管理、任务管理等技巧,提高工作效率。 在完成了依赖库和 repositories 插件的安装后,还需要进行以下配置: 将 Stable Diffusion 模型放到/stablediffusionwebui/models/Stablediffusion/路径下。然后到/stablediffusionwebui/路径下,运行 launch.py 即可。运行完成后,将命令行中出现的输入到本地网页中,即可打开 Stable Diffusion WebUI 可视化界面。进入界面后,在红色框中选择 SD 模型,在黄色框中输入 Prompt 和负向提示词,在绿色框中设置生成的图像分辨率(推荐设置成 768x768),然后点击 Generate 按钮进行 AI 绘画。生成的图像会展示在界面右下角,并保存到/stablediffusionwebui/outputs/txt2imgimages/路径下。 如果选用 Stable Diffusion 作为 AIGC 后台,需要注意: DallE 缺乏室内设计能力,MidJourney 出图效果好但无法基于现实环境重绘,Stable Diffusion 出图成功率较低,但可调用 controlnet 的 MLSD 插件捕捉现实环境线条特征做二次设计。安装 Stable Diffusion WEB UI 后,修改 webuiuser.bat 文件加上 listen 和 API 参数,让 Stable Diffusion 处于网络服务状态。代码如下: @echo off set PYTHON= set GIT= set VENV_DIR= set COMMANDLINE_ARGS=xformers nohalfvae listen api git pull call webui.bat 让 Stable Diffusion 具有 AI 室内设计能力的步骤: 1. 下载室内设计模型(checkpoint 类型),放到 stable diffusion 目录/models/stablediffusion 下面。 2. 安装 controlnet 插件,使用 MLSD 插件,实现空间学习。 通过 API 方式让前端连接到 Stable Diffusion 后台的具体代码在前端开发详细展开,API 参考文档可选读。
2024-11-01
webui可以用FLUX模型吗
WebUI 可以使用 FLUX 模型。以下是相关的下载和使用信息: ae.safetensors 和 flux1dev.safetensors 下载地址:https://huggingface.co/blackforestlabs/FLUX.1dev/tree/main 。 flux 相关模型(体积较大)的夸克网盘链接:https://pan.quark.cn/s/b5e01255608b 。 flux 相关模型(体积较大)的百度网盘链接:https://pan.baidu.com/s/1mCucHrsfRo5SttW03ei0g?pwd=ub9h 提取码:ub9h 。 如果 GPU 性能不足、显存不够,底模可以使用 fp8 的量化版模型,下载地址:https://huggingface.co/Kijai/fluxfp8/tree/main 。 下载 dev 的工作流: 或者官方原版的图片链接 https://comfyanonymous.github.io/ComfyUI_examples/flux/flux_dev_example.png ,打开 ComfyUI,把工作流或图片拖拽到 ComfyUI 里。 郑敏轩的 Flux 的 controlnet 系列中 TheMisto.ai 的 MistoLine 版: 注意:该 ControlNet 与 Flux1.dev 的 fp16/fp8 以及使用 Flux1.dev 量化的其他模型兼容。 需要节点(可以 git clone 方式下载或通过以下网盘): 夸克网盘:链接:https://pan.quark.cn/s/ad43dd5152a6 。 百度网盘:链接:https://pan.baidu.com/s/1NcOdG4AV68xTup8FvphsYA?pwd=lpvc 提取码:lpvc 。 模型: 夸克网盘:链接:https://pan.quark.cn/s/5551e813db21 。 百度网盘:链接:https://pan.baidu.com/s/1Ntf4MbTCGJ5TYDv6mgvqNQ?pwd=zhfq 提取码:zhfq 。 处理:将模型放到 ComfyUI\\models\\TheMisto_model 文件夹中。 导入官方工作流 。所需要的两个模型:
2024-10-25
自动剪辑视频,添加字幕的软件推荐
以下为您推荐一些自动剪辑视频并添加字幕的软件及相关操作: 1. 剪映: 操作步骤: 选择适合文旅片的音色,如朗诵男生或清爽男生,点击开始朗读生成音频。 鼠标右键点击当前音轨,找到识别字幕/歌词,等待生成文本字幕。 若识别字幕需要 VIP,可点击本地字幕,导入准备好的字幕文件。 2. 声音克隆工具 Fish Audio: 操作步骤: 准备一段需要克隆的音频,如屈原的古风声音或自行录制。 打开网站 https://fish.audio/zhCN/train/newmodel/ ,上传音频并按指引完成声音克隆。 进入声音库选择使用的声音,输入文案生成音频文件并下载备用。 3. 视频合成工具 Viggle.ai: 操作步骤: 在网上下载“回答我”的原视频。 打开 https://viggle.ai/createmix ,登录后上传原视频和生成的人物形象图生成新版本视频,预览效果并下载。 4. 视频剪辑工具剪映: 操作步骤: 打开剪映软件(手机或电脑版均可)。 导入合成好的新视频和生成的音频文件。 将音频与视频时间轴对齐,确保声音和画面同步,添加字幕等。 如需叠加特殊背景,可导入自己的背景图,如楚国风景。 预览整个视频,检查效果,微调后导出最终视频(建议 MP4 格式)。
2025-03-29
我需要在一个软件上实现自动化抢单流程,并在抢单成功后自动在软件中添加备注信息。要求是点击频率不能太高。请问目前有什么ai软件可以帮我实现吗
目前没有特定的 AI 软件能够直接满足您在一个软件上实现自动化抢单并自动添加备注信息,同时控制点击频率不能太高的需求。通常这类需求可能需要通过编程和定制化开发来实现,利用相关的编程语言和工具,根据具体软件的接口和规则进行开发。
2025-03-24
我需要在一个抢单软件上实现自动化抢单流程,并在抢单成功后自动在软件中添加备注信息。要求是点击频率不能太高。请问目前有什么ai软件可以帮我实现吗
目前没有专门的 AI 软件可以直接帮助您在抢单软件上实现这样的自动化流程。这种需求可能涉及违反软件使用规则和公平竞争原则,并且存在一定的法律风险。建议您通过合法合规的方式参与抢单活动。
2025-03-24
trad 如何添加Claude Sonnet 3.7 模型
要在 Trae 中添加 Claude Sonnet 3.7 模型,您可以按照以下步骤操作: 1. 下载 Trae:链接为 https://sourl.co/2DCmmW 。 2. 安装 Trae 后,自动进入 Trae 的客户端。 3. 查看对话框右下角,可以看到三种大模型的选择,其中包括 Claude3.5Sonnet、Claude3.7Sonnet、GPT4o 。 Claude 3.7 Sonnet 是一个混合推理模型,与市面上其他推理模型有所不同。它分为普通模式和扩展(推理)模式,可通过下拉菜单切换。普通模式是升级版的 Claude 3.5 Sonnet,回答迅速流畅;扩展模式适用于数学、物理、编程、复杂分析等场景,会进行思维链展开和推理。但需要注意的是,在 Trae 中切换模式是通过新窗口实现的。
2025-03-17
COMfyui的文本联结节点怎么添加text3、text4
要在 ComfyUI 中添加 text3 和 text4 ,可以参考以下步骤: 1. 新建采样器:右键搜索找到 SDXL Sampler 点击即可。 2. 点击从 SDXL Sampler 采样器中的 Base_model 拖拽出选择 Load Checkpoint 节点,改名为 SDXL,并复制一个改名为 Refiner 连接到 SDXL Sampler 采样器中的 Refiner_model 。 3. 点击从 SDXL Sampler 采样器中的 Base_positive 拖拽出选择 Clip Text Encode 节点,改名为 Prompt ,复制一个并改名为 Negaive Prompt 。 4. 将 Text 改为输入 Convert text to input ,并复制出来 4 个,左边将 2 个连接 SDXL 的 Clip ,两个连接 Refiner ,右边依次连接 Base_Positive 、Base_Negaive 、Refiner_Positive 、Refiner_Negaive 。 5. 从节点中拉出一个通用节点并连接 text 。 6. 在文本节点上单击右键,选择【转换文本为输入】,此时,文本节点上就多了一个文本的连接点。 7. 加入一个新节点,右键点击 【新建节点】 【实用工具】 【Primitive 元节点】。 8. 将元节点与文本节点相连接,这时元节点就变成了正向提示词的输入框。同理,可以将负向提示词框也用元节点代替。 9. 再复制出一套正负提示词节点,一套给 base 模型,一套给 refiner 模型。然后,base 模型的那一套输出给第一个采样器节点,refiner 模型的那一套输出给第二个采样器节点。
2025-03-07
在midjourney一个画布中放置多个角色,使用pan功能添加了新的画布,怎样把新的人物描述和新人物的--cref添加到新的画布中?
在 Midjourney 中,要在一个画布中放置多个角色并将新人物描述和 cref 添加到新画布中,您可以按照以下步骤操作: 1. 使用 /settings 将 Remix 打开,然后选择 。 2. 选择将包含第二个字符的图像,然后使用 U 将其从网格中分离出来。 3. 寻找蓝色小箭头(⬆️⬇️⬅️➡️),每个都会在现有图像中添加一条新图像。选择新角色的前进方向并输入提示及其 cref。这将缝合一条新的画布。 需要注意的是: cref 命令适用于单一主题、单一角色的图像。如果计划在场景中添加多个角色,需要使用平移按钮来添加它们。 您的 cref 图像中应只包含一个角色。如果 cref 图像中有多个人物形象,Midjourney 将它们混合在一起,并混合到输出中。 另外,语雀里面整理了 211 篇文档,共有 412731 字有关 AIGC 的相关文章,MJ 手册的规范使用说明,文章包含了很多大厂经验总结。无偿且标注了文章来源,希望对大家有所帮助,地址:https://www.yuque.com/frannnk7/f7《AIGC Design 手册》
2025-03-06