返回博客列表

ComfyUI新手入门下篇

基于上篇的环境搭建和中篇的核心节点知识,重点讲解文生图工作流搭建、实战操作步骤,搭配效果优化技巧和常见问题解决,帮你快速上手AI生成操作,独立完成属于自己的AI作品。\r\n\r\n一、新手实战:搭建第一个文生图工作流\r\n\r\n本次实战将搭建一个简单的“文生图”工作流,生成一张可爱的小猫图像,步骤清晰,新手可直接跟着操作,全程无需复杂设置,重点巩固节点连接和参数调节技巧。\r\n\r\n1.1 步骤1:清空默认工作流,添加核心节点\r\n\r\n打开ComfyUI后,默认会加载一个现成的工作流,新手可先点击工作区空白处,按“Delete”键删除所有节点,从零开始搭建,避免干扰;然后从左侧节点库中,依次拖拽以下6个核心节点到工作区(拖拽时避免节点重叠,摆放整齐,方便后续连接):\r\n\r\n1. Checkpoint Loader(模型加载节点)\r\n\r\n2. CLIP Text Encode(正向提示词节点)\r\n\r\n3. CLIP Text Encode(负向提示词节点,若节点合并,可切换为负向)\r\n\r\n4. Empty Latent Image(潜空间图像节点)\r\n\r\n5. KSampler(采样节点)\r\n\r\n6. VAE Decode(图像解码节点)\r\n\r\n7. Save Image(图像输出节点)\r\n\r\n1.2 步骤2:连接节点,构建工作流\r\n\r\n节点拖拽完成后,按照“数据流向”连接节点(节点之间的端口颜色一致即可连接,鼠标点击端口,拖拽到目标端口即可完成连接,连接时注意线路不要交叉,方便后续修改),连接顺序如下:\r\n\r\n1. Checkpoint Loader → CLIP Text Encode(正向+负向):将“Checkpoint Loader”的“clip”输出端口,分别连接两个“CLIP Text Encode”的“clip”输入端口。\r\n\r\n2. Checkpoint Loader → KSampler:将“Checkpoint Loader”的“model”输出端口,连接“KSampler”的“model”输入端口。\r\n\r\n3. CLIP Text Encode → KSampler:将正向提示词节点的“conditioning”输出端口,连接“KSampler”的“positive”输入端口;负向提示词节点的“conditioning”输出端口,连接“KSampler”的“negative”输入端口。\r\n\r\n4. Empty Latent Image → KSampler:将“Empty Latent Image”的“latent”输出端口,连接“KSampler”的“latent_image”输入端口。\r\n\r\n5. KSampler → VAE Decode:将“KSampler”的“samples”输出端口,连接“VAE Decode”的“samples”输入端口。\r\n\r\n6. Checkpoint Loader → VAE Decode:将“Checkpoint Loader”的“vae”输出端口,连接“VAE Decode”的“vae”输入端口。\r\n\r\n7. VAE Decode → Save Image:将“VAE Decode”的“images”输出端口,连接“Save Image”的“images”输入端口。\r\n\r\n连接完成后,一个完整的文生图工作流就搭建好了,此时工作区的节点会通过线路形成一个闭环,数据能正常流转,若某条线路未连接或连接错误,节点会显示红色提示。\r\n\r\n1.3 步骤3:调节参数,执行生成\r\n\r\n参数调节是生成满意图像的关键,新手按以下参数设置,可快速生成一张合格的图像,无需自行修改,熟悉后再逐步调整:\r\n\r\n1. Checkpoint Loader:下拉选择“Stable Diffusion v1.5”(或你下载的其他模型)。\r\n\r\n2. 正向提示词节点:输入“a cute cat, white fur, blue eyes, healing style, high definition, soft light, simple background”(中文也可,如“一只可爱的小猫,白色毛发,蓝色眼睛,治愈系,高清,柔和光线,简单背景”)。\r\n\r\n3. 负向提示词节点:输入“blurry, malformed, low quality, watermark, ugly, dark”(中文如“模糊,畸形,低画质,水印,丑陋,黑暗”)。\r\n\r\n4. Empty Latent Image:width=512,height=512,batch_size=1。\r\n\r\n5. KSampler:steps=25,cfg=7,sampler_name=euler,其他参数默认即可。\r\n\r\n6. Save Image:filename_prefix=“cat”,output_path默认(可手动修改为自己方便查找的路径)。\r\n\r\n参数设置完成后,点击工作区右上角的“Queue Prompt”(执行按钮),即可开始生成图像,生成时间根据电脑配置而定(一般10-30秒),生成过程中,输出区会逐步显示图像进度,耐心等待即可。\r\n\r\n1.4 步骤4:查看与优化结果\r\n\r\n生成完成后,输出区会显示最终图像,若对效果不满意,可通过以下方式优化(新手重点尝试前2种,操作简单,效果明显):\r\n\r\n- 优化提示词:补充细节(如“小猫趴在草地上,尾巴翘起,眼神灵动”),删除无关词汇,调整负向提示词,增加“高清、细腻、4k”等关键词,让AI生成更精准。\r\n\r\n- 调节参数:适当提高采样步数(如30步),调整cfg值(如6-8),更换采样器(如“dpm++ 2m karras”),平衡效果和生成速度。\r\n\r\n- 更换模型:若生成效果不符合预期,可切换其他模型(如动漫风格换MeinaMix,写实风格换RealVisXL V4.0)。\r\n\r\n- 调整图像尺寸:适当提高宽度和高度(如768×768),但需注意显存占用,避免卡顿。\r\n\r\n二、新手进阶小技巧\r\n\r\n- 保存工作流:搭建好的工作流可点击右上角“Save”,保存为.json文件,后续可直接加载,无需重复搭建;也可分享给他人,实现效果复现(ComfyUI的核心优势之一)。\r\n\r\n- 安装扩展节点:新手熟悉基础操作后,可安装扩展节点丰富功能(如IP-Adapter实现风格迁移、AnimateDiff生成动画),将扩展节点文件夹放入“custom_nodes”目录,重启ComfyUI即可加载。\r\n\r\n- 批量生成:修改“Empty Latent Image”的“batch_size”(如3、5),即可一次生成多张图像,提高效率,适合对比不同效果。\r\n\r\n三、常见问题解决(新手必看)\r\n\r\n- 生成图像模糊、细节差:提高采样步数(≥25),优化提示词(补充细节),调整cfg值(5-8),更换高清模型,避免使用低显存模式。\r\n\r\n- 生成速度慢:降低采样步数(20-25),减小图像尺寸(512×512),关闭其他占用显存的软件,若显卡显存较小,可添加“--lowvram”参数优化显存占用。\r\n\r\n- 节点无法连接:检查端口颜色是否一致,若颜色不同,说明数据类型不匹配,需更换节点或调整连接方式;若节点显示红色,说明参数设置错误,检查参数是否填写完整。\r\n\r\n- 生成图像出现畸形、怪诞:降低cfg值(避免过高),优化负向提示词(添加“畸形、怪诞、扭曲”等),更换采样器或模型,检查提示词是否有矛盾内容。\r\n\r\n四、总结与后续学习方向\r\n\r\n通过上中下三篇教程,新手已完整掌握ComfyUI的基础认知、环境搭建、核心节点用法和实战操作,能够独立完成文生图任务,实现从“新手”到“入门”的跨越。ComfyUI的核心是“灵活可控”,后续可逐步深入学习:\r\n\r\n1. 扩展节点学习:探索IP-Adapter、ControlNet等热门扩展节点,实现风格迁移、姿态控制等更精细的效果。\r\n\r\n2. 高级工作流搭建:学习多路并行工作流(如同时测试多种提示词/参数效果)、潜空间操作(如局部修图、图像融合)等高级技巧。\r\n\r\n3. 模型优化:学习模型微调、LoRA模型使用,生成更具个性化的图像。\r\n\r\n4. API集成:尝试通过API调用ComfyUI,实现批量生成、自动化创作等工业级应用场景。\r\n\r\n新手学习过程中,建议多动手尝试,逐步熟悉节点逻辑和参数调节,遇到问题多排查,慢慢就能掌握ComfyUI的核心用法,解锁更多AI创作的可能性。