ComfyUI入门到实战: Stable Diffusion可视化工作流,AI绘画效率提升10倍

ComfyUI入门到实战: Stable Diffusion可视化工作流,AI绘画效率提升10倍

ComfyUI入门到实战: Stable Diffusion可视化工作流,AI绘画效率提升10倍

ComfyUI是现在最火的Stable Diffusion可视化工作流工具,比传统的WebUI功能更强大、更灵活,能实现复杂的AI绘画效果,效率也高很多,现在专业AI设计师基本都用ComfyUI。本文从基础安装到实战案例,带你快速掌握ComfyUI。


一、为什么选ComfyUI

1.1 核心优势

  • **可视化工作流**:用拖拽节点的方式搭建AI绘画流程,逻辑清晰,不用写代码,每一步都能自定义调整。
  • **功能强大**:能实现很多WebUI做不到的复杂效果,比如局部重绘、高清修复、多图融合、控制网叠加、批量生成,工作流可以保存复用。
  • **性能更高**:比WebUI更省显存,同样的显卡能生成更大尺寸的图片,速度更快,不容易崩。
  • **可复现性好**:工作流可以导出分享,别人导入你的工作流就能生成一模一样的图片,不用担心参数记不住。
  • **生态丰富**:有很多第三方节点插件,支持最新的AI绘画模型、ControlNet、IP-Adapter等新功能,更新比WebUI快。

1.2 适合人群

  • 专业AI设计师、插画师,需要复杂的绘画效果
  • 批量生成图片的工作室,提升效率
  • 喜欢研究AI绘画的爱好者,想要更多自定义空间
  • 觉得WebUI功能不够用,想要更灵活的操作

二、安装和基础配置

2.1 安装方法

Windows安装

1. 下载整合包:推荐下载秋叶的ComfyUI整合包,百度、B站都能找到,解压就能用,不用配置环境,适合新手。

2. 运行`启动.bat`,会自动打开浏览器界面,地址是`http://127.0.0.1:8188`。

3. 把下载的SD模型放到`models/checkpoints`文件夹,VAE模型放到`models/vae`文件夹,ControlNet模型放到`models/controlnet`文件夹。

Linux/Mac安装

bash
# 克隆项目
git clone https://github.com/comfyanonymous/ComfyUI.git
cd ComfyUI
# 安装依赖
pip install -r requirements.txt
# 运行
python main.py

2.2 界面介绍

打开ComfyUI之后,界面主要分为几个部分:

  • **左侧节点库**:所有可用的节点,比如加载模型、提示词、采样器、控制网等,拖拽就能添加到工作区。
  • **中间工作区**:搭建工作流的地方,节点之间连线连接,数据从左到右流动。
  • **右侧属性面板**:选中节点后可以调整参数,比如提示词、采样步数、CFG值等。
  • **右上角菜单**:保存/加载工作流、导出图片、设置等。

第一次打开会有默认的基础工作流,已经可以直接生成图片了。


三、基础工作流搭建

3.1 最简单的文生图工作流

我们来搭建最基础的文生图工作流,只需要几个节点:

1. 加载Checkpoint模型节点(Load Checkpoint):选择你要用的SD大模型,比如RealisticVision、麦橘系列。

2. CLIP文本编码节点(CLIP Text Encode):两个,分别放正向提示词和反向提示词。

3. 空Latent节点(Empty Latent Image):设置生成图片的尺寸,比如512×768、1024×1024。

4. 采样器节点(KSampler):核心节点,设置采样步数、CFG值、采样器类型、随机种子。

5. VAE解码节点(VAEDecode):把Latent转成图片。

6. 保存图片节点(Save Image):生成的图片保存到本地。

连接方式:

  • 模型节点的`MODEL`输出连到采样器的`model`输入
  • 模型节点的`CLIP`输出连到两个文本编码节点的`clip`输入
  • 正向文本编码的`CONDITIONING`连到采样器的`positive`输入
  • 反向文本编码的`CONDITIONING`连到采样器的`negative`输入
  • 空Latent节点的`LATENT`连到采样器的`latent_image`输入
  • 模型节点的`VAE`输出连到VAE解码节点的`vae`输入
  • 采样器的`LATENT`输出连到VAE解码节点的`samples`输入
  • VAE解码节点的`IMAGE`输出连到保存图片节点的`images`输入

连接好之后,在正向提示词节点输入你想要的内容,比如`masterpiece, best quality, 1girl, long hair, blue eyes, white dress, garden`,反向提示词输入`low quality, bad anatomy, ugly, blurry`,点击右上角的”Queue Prompt”就能生成图片了。

3.2 常用参数说明

  • **采样器(Sampler)**:推荐用DPM++ 2M Karras、Euler a,效果好速度快。
  • **采样步数(Steps)**:一般20-30步就够了,步数越多越精细,速度越慢。
  • **CFG值**:7-9最合适,越高提示词相关性越强,太高会画风僵硬。
  • **种子(Seed)**:固定种子可以生成一样的图片,调整参数的时候不用换种子,方便对比效果。

四、进阶功能使用

4.1 ControlNet控制生成

ComfyUI用ControlNet非常方便,能精准控制人物姿势、构图、线条:

1. 添加`Load Image`节点,上传参考图,比如人物姿势图、线稿。

2. 添加`ControlNet Apply`节点,选择你要用的ControlNet模型,比如OpenPose、Canny、Depth。

3. 参考图连到ControlNet节点的`image`输入,模型的`CONTROLNET`输出连到采样器的`control_net`输入。

4. 生成的图片就会严格按照参考图的姿势或者线条来,非常精准。

可以叠加多个ControlNet,比如同时用OpenPose控制姿势,Depth控制深度,生成的图片更符合预期。

4.2 高清修复

生成小图之后放大成高清大图:

1. 添加`Upscale Model`节点,选择超分模型,比如RealESRGAN_x4plus。

2. VAE解码后的图片连到超分节点的`image`输入,超分后的图片再保存。

3. 还可以用`Latent Upscale`,在Latent空间放大,效果更好,细节更丰富。

4.3 局部重绘(Inpaint)

只修改图片的一部分,其他地方不变:

1. 添加`Load Image`节点上传原图,添加`Load Mask`节点上传蒙版(要修改的区域是白色)。

2. 添加`Set Latent Noise Mask`节点,把蒙版连进去,连接到采样器的`latent_image`输入。

3. 调整采样器的`denoise`参数,0.3-0.7最合适,越小保留原图越多,越大变化越大。

4.4 批量生成

批量生成大量图片很简单:

1. 右键空Latent节点,选择`Batch`,设置批量大小,一次生成多张。

2. 或者用`Batch Prompt`节点,批量导入提示词,一次生成不同内容的图片。

3. 适合做表情包、头像、电商主图等需要大量图片的场景,一次生成几百张都没问题。


五、实用技巧

5.1 工作流复用

搭建好的工作流可以保存下来,下次直接用:

  • 点击菜单`Save`,保存为`.json`文件,下次用`Load`加载。
  • 网上有很多别人分享的现成工作流,比如AI写真、电商海报、LOGO设计,导入就能用,不用自己从零搭建。
  • 常用的工作流可以导出成模板,提高效率。

5.2 常用插件推荐

  • **ComfyUI-Manager**:插件管理器,一键安装第三方插件、更新节点,必装。
  • **ComfyUI-Custom-Scripts**:很多实用小脚本,比如自动节点排列、快速预览。
  • **Impact Pack**:提供很多实用节点,比如自动抠图、语义分割、细节增强。
  • **ControlNet Aux**:ControlNet辅助节点,不用外部工具就能生成姿势图、深度图、线稿。

5.3 性能优化

  • 开启`–xformers`参数,显存占用减少一半,速度提升很多,整合包一般默认开启。
  • 不用的节点删掉,工作流不要太复杂,避免卡顿。
  • 大尺寸图片分块生成,避免显存不足。

六、实战案例:AI电商主图生成

我们来搭建一个电商主图生成的工作流,适合做电商的朋友批量生成商品图:

1. 加载写实类大模型,比如RealisticVision。

2. 正向提示词:`masterpiece, best quality, product photography, white background, a white sneaker, soft lighting, studio shot, high detail`,反向提示词:`low quality, ugly, shadow, reflection`。

3. 添加ControlNet OpenPose节点,控制鞋子的摆放角度。

4. 添加ControlNet Depth节点,控制景深。

5. 生成1024×1024的图片,然后用超分模型放大到2048×2048。

6. 自动保存到指定文件夹。

这样的工作流一次能生成几十张不同角度、不同款式的鞋子主图,比实拍快很多,成本几乎为零,非常适合电商商家。


七、学习资源

  • **官方文档**:ComfyUI的GitHub文档很详细,有问题先看官方文档。
  • **B站/YouTube**:很多up主分享ComfyUI教程和工作流,跟着做几遍就会了。
  • **Civitai**:模型分享网站,很多模型下面会附带对应的ComfyUI工作流,下载就能用。
  • **ComfyUI社区**:QQ群、Discord社区,遇到问题可以问,很多大佬会分享工作流。

ComfyUI虽然看起来比WebUI复杂,但是学会之后效率提升非常明显,能实现很多你想要的效果,尤其是需要批量生成或者复杂效果的场景,ComfyUI是不二之选。现在就动手试试,搭建属于你自己的工作流吧!

© 版权声明

相关文章

暂无评论

none
暂无评论...