Navigate to WaytoAGI Wiki →
Home/Question List/Question Detail

comfyui手册

Answer

以下是关于 ComfyUI 的相关学习资料和安装部署指南:

学习资料:

  1. ComfyUI 官方文档:提供使用手册和安装指南,适合初学者和有经验用户,网址:https://www.comfyuidoc.com/zh/ 。
  2. 优设网:有详细的 ComfyUI 入门教程,适合初学者,网址:https://www.uisdc.com/comfyui-3 。
  3. 知乎:有用户分享 ComfyUI 的部署教程和使用说明,适合有一定基础并希望进一步了解的用户,网址:https://zhuanlan.zhihu.com/p/662041596 。
  4. Bilibili:提供一系列涵盖从新手入门到精通阶段的视频教程,网址:https://www.bilibili.com/video/BV14r4y1d7r8/ 。

安装部署指南:

  1. 作者“白马少年”于 2023 年 9 月 3 日 19:00 发布的【ComfyUI】本地部署 ComfyUI 上手指南,原文网址:https://mp.weixin.qq.com/s/7ZO9AXvzjwohyNOXTe1x8A 。
    • 先讲解本地部署和初步使用方法,ComfyUI 下载的 github 链接:https://github.com/comfyanonymous/ComfyUI#installing,也可去作者网盘下载一键启动压缩包。下载完后,将文件解压到一个没有中文的路径下。
  2. 完全从 0 开始安装的介绍:
    • 电脑硬件要求:
      • 系统:Windows7 以上。
      • 显卡要求:NVDIA 独立显卡且显存至少 4G 起步。
      • 硬盘留有足够空间,最低 100G 起步(包括模型)。
      • 注:mac 系统、AMD 显卡、低显卡的情况也可安装使用,但功能不全,出错率偏高,严重影响使用体验,建议升级设备或者采用云服务器玩耍。
      • 下载并更新 Nvidia 显卡驱动下载地址:https://www.nvidia.cn/ geforce/drivers/ 。
    • 下载并安装所需环境:
      • 依次下载并安装 python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。
      • 安装 Python:https://www.python.org/downloads/release/python-3119/ ,安装时选中“将 Python 添加到系统变量”。
      • 安装 VSCode:https://code.visualstudio.com/Download 。
      • 安装 Git:https://git-scm.com/download/win 。
      • 安装 CUDA:https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_network 。

请注意,以上内容由 AI 大模型生成,请仔细甄别。

Content generated by AI large model, please carefully verify (powered by aily)

References

问: 有没有comfy ui相关的学习资料?

是的,根据搜索结果,有几个网站提供了关于ComfyUI的学习教程:1.ComfyUI官方文档:提供了ComfyUI的使用手册和安装指南,适合初学者和有经验的用户。你可以在[ComfyUI官方文档网站](https://www.comfyuidoc.com/zh/)找到相关信息。2.优设网:提供了一篇详细的ComfyUI入门教程,这篇教程适合初学者,详细介绍了ComfyUI的特点、安装方法以及如何使用ComfyUI生成图像等内容。教程地址是[优设网的ComfyUI入门教程](https://www.uisdc.com/comfyui-3)。3.知乎:有用户分享了ComfyUI的部署教程和使用说明,这篇介绍适合那些已经有一定基础并希望进一步了解ComfyUI的用户。可以在[知乎的ComfyUI介绍](https://zhuanlan.zhihu.com/p/662041596)找到相关教程。4.Bilibili:提供了一系列的ComfyUI视频教程,涵盖了从新手入门到精通的各个阶段。这些视频教程可以帮助用户更直观地学习ComfyUI的使用。可以在[Bilibili的ComfyUI系列教程](https://www.bilibili.com/video/BV14r4y1d7r8/)找到视频教程。这些资源为用户提供了丰富的学习材料,从基础操作到高级技巧,可以帮助用户更好地掌握ComfyUI的使用。内容由AI大模型生成,请仔细甄别。

【ComfyUI】本地部署ComfyUI上手指南,我就喜欢连连看

作者:白马少年介绍:SD实践派,出品精细教程发布时间:2023-09-03 19:00原文网址:https://mp.weixin.qq.com/s/7ZO9AXvzjwohyNOXTe1x8A从Stable diffusion上线以来,我们一直使用的是秋叶的WebUI版本,它的界面简单易用,方便初学者上手。但webUI的缺点在于,工作流程的逻辑不是很清晰,很多时候往往会漏掉一些重要的参数,而且底层架构比较复杂,导致了它对于用户配置需求很高。特别是当SDXL出来之后,很多人都无法在webUI上正常运行,为了能更好的适应未来SD的发展,今天来给大家介绍一下ComfyUI。#安装我们先来讲解一下ComfyUI的本地部署,和初步的一个使用方法。ComfyUI下载的github链接:https://github.com/comfyanonymous/ComfyUI#installing,大家也可以去我的网盘里下载一键启动压缩包。下载完后,将文件解压到一个没有中文的路径下。

1、安装部署ComfyUI 副本

今天主要介绍StableDiffusion的另一种UIComfyUI的实际操作方法,完全从0开始安装。以及如何在ComfyUI中使用SDXL模型,希望通过本文能够降低大家对StableDiffusion ComfyUI的学习成本,更快速的体验到AIGC图像生成的魅力。[heading1]一、电脑硬件要求[content]1.系统:Windows7以上(就不要为难XP老师傅了)。2.显卡要求:NVDIA独立显卡且显存至少4G起步。3.硬盘留有足够的空间,最低100G起步(包括模型)。4.注:mac系统,AMD显卡,低显卡的情况也可以安装使用,功能不全,出错率偏高,严重影响使用体验个人建议升级设备或者采用云服务器玩耍。5.下载并更新Nvidia显卡驱动下载地址https://www.nvidia.cn/ geforce/drivers/[heading1]二、下载并安装所需要环境[content]依次下载并安装python、Git、VSCode,安装过程中一直点击勾选对应选项,一直下一步。1.安装Python https://www.python.org/downloads/release/python-3119/file:python-3.11.9-amd64.exe安装的时候选中“将Python添加到系统变量”1.安装VSCode https://code.visualstudio.com/Downloadfile:VSCodeUserSetup-x64-1.90.0.exe3、安装Git https://git-scm.com/download/winfile:3-Git-2.39.2-64-bit.exe4、安装CUDAhttps://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Windows&target_arch=x86_64&target_version=11&target_type=exe_networkfile:cuda_12.2.0_536.25_windows.exe

Others are asking
comfyui工作流
ComfyUI 工作流主要包括以下内容: FLUX 低显存运行工作流:目的是让 FLUX 模型能在较低的显存情况下运行。分阶段处理思路为:先在较低分辨率下使用 Flux 模型进行初始生成,然后采用两阶段处理,即先用 Flux 生成,后用 SDXL 放大,有效控制显存的使用,最后使用 SD 放大提升图片质量。工作流的流程包括初始图像生成(Flux)的一系列操作,如加载相关模型、处理输入提示词、生成初始噪声和引导等,以及初始图像预览;图像放大和细化(SDXL)的一系列操作,如加载 SDXL 模型、对初始图像进行锐化处理等,还有最终图像预览。 工作流网站: “老牌”workflow 网站 Openart.ai:https://openart.ai/workflows/ 。流量比较高,支持上传、下载、在线生成,免费账户总共有 50 个积分,加入 Discord 可以再加 100 积分,开通最低的每个月 6 美元的套餐后,每个月会有 5000 积分。 ComfyWorkflows 网站:https://comfyworkflows.com/cloud 。支持在线运行工作流,从 workflow 的实际下载量和访问量来看,略少于 openart。 Flowt.ai:https://flowt.ai/community 。 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景是纯色(方便识别),选择绿幕是为了方便抠图。工作流文件可通过链接 https://pan.quark.cn/s/01eae57419ce 提取(提取码:KxgB),下载拖入 ComfyUI 中自动加载工作流进行学习。
2025-04-14
ComfyUI
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,类似于集成了 stable diffusion 功能的 substance designer,通过将 stable diffusion 的流程拆分成节点,实现了更精准的工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动速度快,出图速度快。 2. 具有更高的生成自由度。 3. 可以和 webui 共享环境和模型。 4. 可以搭建自己的工作流程,可以导出流程并分享给别人,报错时能清晰发现错误所在步骤。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰的逻辑。 2. 生态没有 webui 多(常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:从 github 上下载作者部署好环境和依赖的整合包,按照官方文档按照即可:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动。启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。
2025-04-14
comfyui
ComfyUI 是一个基于节点流程式的 stable diffusion AI 绘图工具 WebUI,可想象成集成了 stable diffusion 功能的 substance designer,将 stable diffusion 流程拆分成节点,实现更精准工作流定制和完善的可复现性。 其优势包括: 1. 对显存要求相对较低,启动和出图速度快。 2. 生成自由度更高。 3. 可以和 webui 共享环境和模型。 4. 能搭建自己的工作流程,可导出流程并分享,报错时能清晰发现错误所在。 5. 生成的图片拖进后会还原整个工作流程,模型也会选择好。 劣势有: 1. 操作门槛高,需要有清晰逻辑。 2. 生态没有 webui 多(但常用的都有),也有一些针对 Comfyui 开发的有趣插件。 官方链接:https://github.com/comfyanonymous/ComfyUI 。 安装部署方面: 1. 地址:https://github.com/comfyanonymous/ComfyUI ,可以下载安装包也可以直接 Git clone https://github.com/comfyanonymous/ComfyUI.git ,或者下载安装包 file:ComfyUI.zip ,下载安装包或者点击链接下载并解压至本地除 C 盘外的任意盘。然后找到文件名称为 run_nvidia_gpu 的文件双击并启动,启动完成即进入基础界面。 2. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在 D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 。 3. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints 。 Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras 。 Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 。 4. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型,找到已安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 此外,还可以直接在 Comfy UI 中训练 LoRA 模型。默认情况下,训练结果直接保存在 ComfyUI lora 文件夹中,训练后只需刷新并选择 LoRA 就可以测试。
2025-04-13
comfyui漫画工作流
ComfyUI 漫画工作流包含以下内容: 1. 绿幕工作流:包含两个组,即生成绿幕素材和绿幕素材抠图。因为 SD 无法直接生成透明背景的 png 图片,所以要先生成一张素材图,前景是重要的主体素材,背景为纯色(方便识别),选择绿幕是为了便于抠图。工作流文件链接:https://pan.quark.cn/s/01eae57419ce 提取码:KxgB 2. 动画工作流: 啊朔提供的动画工作流文件,如:
2025-04-13
comfyui动画片工作流怎么构建
构建 ComfyUI 动画片工作流的步骤如下: 1. 打开 Comfyui 界面后,右键点击界面,找到 Comfyui LLM party 的目录。您可以学习手动连接节点来实现最简单的 AI 女友工作流,也可以将工作流文件拖拽到 Comfyui 界面中一键复刻提示词工程实验。 2. 从 ollama 的 github 仓库找到对应版本并下载。启动 ollama 后,在 cmd 中输入 ollama run gemma2 将自动下载 gemma2 模型到本地并启动。将 ollama 的默认 base URL=http://127.0.0.1:11434/v1/以及 api_key=ollama 填入 LLM 加载器节点即可调用 ollama 中的模型进行实验。 3. 若 ollama 连接不上,很可能是代理服务器的问题,请将 127.0.0.1:11434 添加到不使用代理服务器的列表中。 此外,还有以下相关工作流搭建的信息供您参考: 1. 搭建艺术二维码工作流:打开 ComfyUI 导入相应工作流。工作流所用到的节点包括大模型节点(可选择如 AWPainting、primemixanything、xxmix9realistic v40 等,并提供了相应链接)、关键词节点、Lora 节点、ControlNet 节点(选用 qrcode_monster V2 版本,下载链接:https://huggingface.co/monsterlabs/control_v1p_sd15_qrcode_monster/tree/main/v2 )、采样器节点(Step 选择高步数,35 50 即可,采样器默认的 euler a/dpmpp 2m sde )。 2. 搭建 ComfyUI 基础工作流:从零开始搭建时,首先准备加载大模型的节点,在工作区鼠标右键点击,选择 Add Node > 选择 loaders > 选择 Load Checkpoint,并选择对应的模型。然后加载 Conditioning(条件),在工作区鼠标右键点击,选择 Add Node > 选择 Conditioning > 选择 CLIP TEXT Encode,输入正反向提示词。添加采样器时,部分参数设置与 WEB_UI 有所不同,如 seed 值只有固定、随机、每次增加、每次减少这四个选项,采样器和调度器是分开的。
2025-04-13
comfyui如何本地安装
以下是在本地安装 ComfyUI 的详细步骤: 安装方式有两种,分别是安装到本地和安装到云端。本部分主要介绍本地安装方法。 本地安装方法: 1. 命令行安装: 这是普适性最强的方法,安装后二次遇到问题的概率相对较低,但对于不熟悉命令行以及代码的用户来说,可能会有一定的门槛。 ComfyUI 的源码地址在:https://github.com/comfyanonymous/ComfyUI ,安装方法写在了 Readme 中。您也可以按照 Readme 文档进行操作。 如果会 Git 请在 Terminal 运行以下代码: 如果不会用 Git,推荐使用 Github 的客户端(https://desktop.github.com/)拉代码。 下载并安装好 Github Desktop 后,打开该应用。 然后打开 ComfyUI 的 Github 页面(https://github.com/comfyanonymous/ComfyUI),点击右上角的绿色按钮,并点击菜单里的「Open with GitHub Desktop」,此时浏览器会弹出是否要打开 GitHub Desktop,点击「是」。 GitHub Desktop 会让您选择一个保存位置,按需调整,然后点击确定。看到下方特定界面,意味着完成了代码同步。 2. 安装包安装: 这种方法安装比较简单,下载就能用。 ComfyUI 的官方安装包:目前仅支持 Windows 系统,且显卡必须是 Nivida。下载地址是:https://github.com/comfyanonymous/ComfyUI/releases ,只需下载最新的版本,解压就能使用。 安装完成后: 1. 节点存放目录:comfyUI 的节点包括后面安装的拓展节点都存放在本目录下:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\custom_nodes 2. 模型存放目录: 大模型:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\checkpoints Lora:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\loras Vae:D:\\COMFYUI\\ComfyUI_windows_portable\\ComfyUI\\models\\vae 3. 模型共用:已经安装了 SDWebUI 的同学可以通过修改文件路径和 WebUI 共用一套模型即可,这样就不用重复下载模型了。找到您已经安装好的 ComfyUI 目录文件下的 extra_model_paths.yaml.example 文件,将后缀.example 删除,然后右键用记事本打开。 希望以上内容对您有所帮助。
2025-04-10
给我提供一份清华大学104页的deepseek从入门到精通的手册的链接
以下是为您找到的与清华大学 DeepSeek 相关的一些资料链接: https://pan.quark.cn/s/56e2713e95f4 https://docs.qq.com/doc/DSG9SWFpjVXI3aHZ1 清华大学 104 页的 DeepSeek 从入门到精通的手册:https://waytoagi.feishu.cn/record/FjWorH (2 月 11 日更新附录)
2025-04-11
给我提供一份清华大学104页的deepseek从入门到精通的手册
以下是为您整合的相关信息: 清华大学出品了《DeepSeek:从入门到精通》的指南,该指南详细阐述了 DeepSeek 的功能,如智能对话、文本生成、代码生成、自然语言理解等,并探讨了其使用方法,包括推理模型与通用模型的区别、提示语设计策略等,旨在帮助用户更好地掌握这一 AI 工具的使用,提升工作效率和创新能力。您可以通过以下链接获取:https://waytoagi.feishu.cn/record/QAURr4CNGeJ5GIcvU0nc9X3dndg 。 此外,还有一些相关的更新和资料,如 2 月 11 日更新附录的清华大学 104 页 Deepseek 从入门到精通、1 月 21 日更新热门 AI deepseek 推荐及案例征稿通知、1 月 14 日更新爱好者交流 g 群和微信群、12 月 30 日更新案例 24,25,26 等。 同时还有关于 AI 赋能教学的课程实施流程及案例亮点等内容,如利用 AI 生成开放性问题引发深度思考、通过多维数据分析支持全面客观的判断、通过辩论提升批判性思维和表达能力等。
2025-04-11
北京大学的deep seek使用手册
以下是为您找到的与北京大学的 DeepSeek 相关的使用资料: 《》讲座讲解了直接使用 DeepSeek 的三种方法,还分享诸多提示词技巧,如真诚直接、巧用通用公式等。在应用场景方面,DeepSeek 在专业场景提效、教育学术赋能、商业创新与生活服务等领域用途广泛,像辅助办公、教学设计、电商运营等。讲座为人们理解和运用 DeepSeek 提供了全面指导,助力大家借助该技术提升工作、学习和生活效率。 此外,全球数据资产理事会发布的《》也可能对您有所帮助。
2025-03-04
deepseek学习手册
以下是关于 DeepSeek 的相关学习资料: 研究报告和手册: 《 《》 《》中文翻译版 华西证券:《》 中信建投:《》 来觅研究院:《》 关于 DeepSeek 的使用分享: DP 模型的功能:能进行自然语言理解与分析、编程、绘图,如 SVG、MA Max 图表、react 图表等。 使用优势:可以用更少的词让模型做更多事,思维发散,能给出创意思路和高级内容。 存在问题:思维链长不易控制,可能输出看不懂或胡编乱造的内容,增加纠错成本。 审核方法:可以用其他大模型来解读 DP 模型给出的内容。 使用建议:使用时要有自己的思维雏形,多看思考过程,避免被模型冲刷原有认知。 使用场景:包括阅读、育儿、写作、随意交流等方面。 案例展示:通过与孩子共读时制作可视化互动游戏,以及左脚踩右脚式的模型交互来展示 DP 模型的应用。 音系学研究:对音系学感兴趣,通过对比不同模型的回答来深入理解,如 bug 和 DIFF SIG,探讨语言概念在音系学下的心理印象等。 大模型取队名:与大模型进行多轮对话来取队名,通过不断约束和披露喜好,最终得到满意的队名及相关内容。 Deepseek 文档分享:在 3 群和 4 群分享了 Deepseek 的相关文档,也可在 v to a gi 的飞书知识库中搜索获取。 Deepseek 使用介绍:介绍了 Deepseek 的模型、收录内容、提示词使用技巧和好玩的案例等。 提示词让 DeepSeek 能力提升: 效果对比:用 Coze 做了个小测试,可对比查看 使用方法: 搜索 www.deepseek.com,点击“开始对话” 将装有提示词的代码发给 Deepseek 认真阅读开场白之后,正式开始对话 设计思路: 将 Agent 封装成 Prompt,将 Prompt 储存在文件,保证最低成本的人人可用的同时,减轻自己的调试负担 通过提示词文件,让 DeepSeek 实现:同时使用联网功能和深度思考功能 在模型默认能力的基础上优化输出质量,并通过思考减轻 AI 味,增加可读性 照猫画虎参考大模型的 temperature 设计了阈值系统,但是可能形式大于实质,之后根据反馈可能会修改 用 XML 来进行更为规范的设定,而不是用 Lisp(对我来说有难度)和 Markdown(运行下来似乎不是很稳定) 特别鸣谢:李继刚的【思考的七把武器】在前期为提供了很多思考方向;Thinking Claude 是现在最喜欢使用的 Claude 提示词,也是设计 HiDeepSeek 的灵感来源;Claude 3.5 Sonnet 是最得力的助手。
2025-03-01
北大deepseek使用手册
以下是关于北大 DeepSeek 的相关使用资料: 全球数据资产理事会:《》 清华大学新闻与传播学院新媒体研究中心出品的《》,详细阐述了 DeepSeek 的功能,包括智能对话、文本生成、代码生成、自然语言理解等,并探讨了如何使用 DeepSeek,包括推理模型与通用模型的区别、提示语设计策略以及如何从入门到精通。文章还介绍了提示语设计的核心技能、常见陷阱及应对方法。 北京大学:《》讲座讲解了直接使用 DeepSeek 的三种方法,还分享诸多提示词技巧,如真诚直接、巧用通用公式等。在应用场景方面,DeepSeek 在专业场景提效、教育学术赋能、商业创新与生活服务等领域用途广泛,像辅助办公、教学设计、电商运营等。
2025-02-28
deepseek 自学手册 PDF 版有吗
以下是关于 DeepSeek 的相关资料: 同时还有 DeepSeek 的论文资料: 另外,关于 DeepSeek 深度推理+联网搜索目前断档第一的相关内容: DeepSeek 的特点与优势包括: 推理型大模型:核心是推理型大模型,通过理解用户真实需求和场景提供答案,不需要用户提供详细步骤指令。 更懂人话:能够理解用户用“人话”表达的需求,不需要用户学习和使用特定提示词模板。 深度思考:回答问题时能够进行深度思考,而非简单罗列信息。 文风转换器:可以模仿不同作家的文风进行写作,适用于多种文体和场景。 更多提示词技巧请查看
2025-02-25