需先安装ComfyUI环境并启动服务,再加载Stable Diffusion模型,接着构建含CheckpointLoaderSimple、CLIPTextEncode、KSampler、VAEDecode和SaveImage的节点工作流,配置采样参数后执行生成,最后可保存JSON工作流并调试优化。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您希望快速上手ComfyUI并利用其节点式界面生成Stable Diffusion图像,则需理解其与传统WebUI在工作流构建上的根本差异。以下是开始使用ComfyUI的具体操作路径:
一、安装ComfyUI基础环境
ComfyUI依赖Python运行时及特定版本的PyTorch,需确保系统满足最低依赖要求,避免因CUDA版本不匹配导致加载模型失败。
1、从GitHub官方仓库克隆ComfyUI项目:git clone https://github.com/comfyanonymous/ComfyUI。
2、进入ComfyUI目录后,执行python main.py启动服务,默认监听本地127.0.0.1:8188端口。
3、在浏览器中访问http://127.0.0.1:8188,确认界面正常加载且无红色报错提示。
二、加载Stable Diffusion模型文件
ComfyUI不自带模型,必须手动将已下载的.safetensors或.ckpt格式模型文件放入指定目录,否则所有生成节点将显示“模型未找到”错误。
1、将模型文件复制到ComfyUI根目录下的models/checkpoints/子目录中。
2、刷新浏览器页面后,在节点面板中右键选择Load Checkpoint节点,下拉列表中应出现对应模型名称。
3、点击该节点,确认右侧参数面板中ckpt_name字段已正确显示模型文件名。
三、构建首个文本到图像工作流
ComfyUI通过连接不同功能节点形成数据流,文本生成图像流程需至少包含模型加载、CLIP文本编码、采样器和VAE解码四个核心环节。
1、在空白画布上右键,依次添加CheckpointLoaderSimple、CLIPTextEncode(两次)、KSampler、VAEDecode和SaveImage节点。
2、将CheckpointLoaderSimple的CLIP输出连接至第一个CLIPTextEncode的clip输入,将VAE输出连接至VAEDecode的vae输入。
3、在两个CLIPTextEncode节点的text字段中分别填入正向提示词与负向提示词,再将它们的conditioning输出分别连入KSampler的positive和negative输入端口。
四、配置采样参数并执行生成
KSampler节点控制图像生成的核心算法行为,其参数直接影响输出质量与风格稳定性,必须根据所用模型类型选择匹配的采样器与步数。
1、在KSampler节点中,将steps设为20–30,cfg值设为7–8,sampler_name选择euler或dpmpp_2m。
2、确认KSampler的latent_image输入连接自EmptyLatentImage节点(需额外添加),并设置目标宽高为512×512或768×768。
3、点击画布顶部的Queue Prompt按钮,观察右下角日志区域是否出现executing字样及后续进度条。
五、保存与调试常用技巧
工作流可导出为JSON文件复用,同时支持实时修改节点参数并重新排队,无需重启服务即可验证不同设置效果。
1、点击画布右键菜单中的Save (as),将当前布局保存为my_first_workflow.json。
2、修改任意CLIPTextEncode中的提示词后,再次点击Queue Prompt,系统将基于新文本重跑整个流程。
3、若生成图像模糊或结构异常,优先检查KSampler的denoise值是否被误设为过低(如0.1以下),应保持在0.8–1.0区间。










