ComfyUI 工作组的工作方式如下:
此外,还有一些实用的插件和脚本,如题词汉化插件:https://github.com/AlekPet/ComfyUI_Custom_Nodes_AlekPet ,集合了许多实用功能;自定义脚本:https://github.com/pythongosssss/ComfyUI-Custom-Scripts ,用于界面的一些调整。
此工作流包含两个组:生成绿幕素材和绿幕素材抠图我为什么这么做?因为SD无法直接生成透明背景的png图片,所以要先生成一张素材图,前景是我们最重要的主体素材,背景是纯色(方便识别),既然要抠图,背景当然得是绿幕(不然怎么不叫白幕、黑幕),最后再把前景素材从背景中抠出来。道理听起来很简单我把工作流文件放上来,大家可以下载拖入ComfyUI中自动加载工作流,然后对照本文进行学习工作流链接:https://pan.quark.cn/s/01eae57419ce提取码:KxgB
基于上面的一些基础,我们在comfyui里面创建一个简单的工作流。以为采样器为起点,分别拉出来模型、正面条件(正向提示词)、负面条件(负向提示词)、Latent(潜在空间)这里我们注意一下,正面条件(正向提示词)、负面条件(负向提示词)对应的CLIP文本提示词,要回流到模型(CheckPoint加载器上)在潜在空间中编码,然后VAE解码,输出图像。另外,我们输入给潜在空间的信息,都应该是编码过后的,不然是链接不起来的基于上面的,我们可以创建图生图的工作流,在里面,就需要把上面的空Latent换成载入图片的,之后,图片也需要编码后给到采样器。然后注意下降噪,在图生图里面,comfyui的降噪就是webui中的重绘幅度。然后,我们放慢点,看下工作流的顺序,希望对大家的理解有帮助另外:题词汉化插件:https://github.com/AlekPet/ComfyUI_Custom_Nodes_AlekPet集合了许多实用的功能自定义脚本:https://github.com/pythongosssss/ComfyUI-Custom-Scripts用于界面的一些调整,舒适用户界面自定义脚本。
这样是不是更好理解了一下,好了那接下来我们讲一点理论的知识,其实也很简单。直接看吧|节点名称|在SD模型里对应的名称|解释|<br>|-|-|-|<br>|CLIP Text Encode|Text Encoder|Stable Diffusion的Text Encoder用的是CLIP里的Text Encoder吗?其实这个组件和Text Encoder是一个东西。只是说这里有两个,但如果你沿着输出端的连线往下看,你会看到两个节点分别连接positive和negative端,这就意味着它们一个是正向prompt一个代表负向prompt。|<br>|KSmapler|Image Information Creator|这个对应的就是我们的最核心的模型生成图片的部分,在ComfyUI里名字差异比较大,且配置项很多,在后续章节我会详细讲解。|<br>|Empty Latent Image|Image Information Creator|上一章我们也提到,整个生图过程是在Latent Space里进行,所以在ComfyUI里的这个节点叫Empty Latent Image。|<br>|VAE Decoder|Image Decoder|整个生成过程都在Latent Space进行,该过程全称为Variational Auto Encoder(变分自编码器)简称VAE,所以这个在ComfyUI里就被称为VAE Decoder了。|