ComfyUI 常见问题与排查指南(简体中文完整版)

这是一份全面的 ComfyUI 故障排查参考手册,从安装失败到生成报错,为新手与进阶用户提供一步步可操作的解决方案。

我们涵盖:

  • 安装 / 启动失败
  • 模型加载 / 兼容问题
  • 工作流执行报错
  • 生成画质问题
  • 性能 / 显存限制
  • 部署(SSG/托管)问题
  • 插件 / 扩展冲突

快速排查清单(5 分钟快速修复)

在进入详细解决方案前,先试试这些快速检查——能解决 80% 的常见问题:

  1. 重启 ComfyUI(很多修改必须重启才会生效)。
  2. 确认模型文件放在正确目录(例如 LoRA → models/lora/,大模型 → models/checkpoints/)。
  3. 更新 ComfyUI 到最新版(在 ComfyUI 文件夹执行 git pull 或使用管理器更新)。
  4. 释放显存:关闭其他占用显卡的软件(游戏、剪辑软件),或降低图片分辨率。
  5. 检查节点连线:确保所有必需输入(如 modelconditioningimage)都已正确连接。

1. 安装与启动问题

问题 1:ComfyUI 无法启动(无窗口 / 命令行闪退)

现象:双击 run_nvidia_gpu.bat(Windows)或 run.sh(macOS/Linux)没反应,或终端立刻关闭。

原因

  • 缺少 Python 3.10+(ComfyUI 要求 Python 3.10–3.11;3.12 及以上不支持)。
  • 显卡驱动过时(NVIDIA/AMD 驱动与 PyTorch 不兼容)。
  • 依赖损坏(Python 包缺失或异常)。

解决方法

  1. 安装 Python 3.10.11(推荐),安装时勾选 Add Python to PATH
  2. 更新显卡驱动:
    • NVIDIA:用 GeForce Experience 或官网驱动工具
    • AMD:用 Radeon Software
  3. 修复依赖:
    cd 你的ComfyUI目录
    pip install --upgrade -r requirements.txt
    

问题 2:启动时“CUDA Out of Memory”(非生成时)

现象:还没加载工作流,一启动就报显存不足。

原因

  • 后台运行了多个 ComfyUI 实例。
  • 其他软件占用了大量显存(如 Discord 硬件加速、Chrome 显卡任务)。

解决方法

  1. 关闭所有占用 GPU 的后台程序。
  2. 低显存模式启动:
    • 编辑 run_nvidia_gpu.batrun.sh
    • 在启动命令添加 --lowvram
      python main.py --lowvram
      

问题 3:提示“download fp8-version of z-image-turbo”

解决方法

  1. 下载 FP8 版本的 z-image-turbo 模型。
  2. 放入:models/diffusion_models 文件夹。

2. 模型加载与兼容问题

问题 1:模型在 ComfyUI 中不显示

现象:下载的模型在节点下拉框里找不到。

原因

  • 放错文件夹。
  • 文件格式不支持 / 损坏。
  • 没重启 ComfyUI,未扫描新模型。

正确文件夹对照

模型类型正确文件夹支持格式
大模型 Checkpointmodels/checkpoints/.ckpt .safetensors
LoRAmodels/lora/.ckpt .safetensors
ControlNetmodels/controlnet/.pth .safetensors
Embeddingmodels/embeddings/.bin .pt
VAEmodels/vae/.ckpt .safetensors

解决:放对位置 → 重启 ComfyUI。


问题 2:“Model Load Failed”模型加载失败

原因

  • 下载损坏(网络中断导致文件不完整)。
  • 模型不兼容(如 SDXL 模型用在 SD1.5 工作流)。
  • 量化模型(GGUF/INT4)缺少依赖。

解决

  1. 重新下载,核对文件大小。
  2. 确认模型版本匹配。
  3. GGUF 模型需安装依赖:
    pip install llama-cpp-python accelerate
    

问题 3:LoRA / ControlNet 完全没效果

原因

  • 缺少触发词。
  • 节点接错。
  • 强度(strength)设为 0。

解决

  1. 添加触发词。
  2. 正确连线:
    • LoRA 模型输出 → KSampler 模型输入
    • ControlNet 输出 → KSampler control_net 输入
  3. 强度调到 0.5–1.0。

3. 工作流执行错误

问题 1:“Missing Input”缺失输入

现象KSampler 提示缺少 modelconditioning

解决

  1. 使用顶部 Validate 检查错误。
  2. 重新正确连接核心节点。

问题 2:工作流在运行但不出图

原因

  • Save Image 未连接或路径错误。
  • 正面提示词为空。
  • KSampler steps 设为 0。

解决

  1. 确认保存节点连接正常、路径正确。
  2. 填写简单提示词测试。
  3. 步数设为 20–50。

问题 3:“Type Error”类型不匹配

原因

  • 把不兼容的端口连在一起(如 ControlNet 连到 model 输入)。
  • 旧节点用在新模型(SD1.5 节点用于 SDXL)。

解决

  • 输入输出类型必须匹配。
  • SDXL / FLUX 要用专用节点。

4. 图像生成质量问题

问题 1:生成纯黑 / 空白图

原因

  • 提示词为空。
  • 负面提示词过于严格。
  • 模型损坏。

解决

  1. 使用简单提示词测试。
  2. 简化负面提示词。
  3. 更换正常模型。

问题 2:画面模糊、画质差

原因

  • 分辨率太低。
  • 步数太少。
  • 模型不适合写实 / 精细场景。

解决

  1. 提高分辨率到 1024×1024 及以上。
  2. 步数设为 30–50。
  3. 使用高质量采样器:DPM++ 2M Karras。

问题 3:AI 不听提示词

原因

  • 提示词太模糊。
  • 关键词权重过高。
  • 模型本身偏向性强。

解决

  1. 写具体、清晰的提示词。
  2. 合理使用权重 (词:1.2)
  3. 优先使用 SDXL 模型,服从度更高。

5. 性能与资源问题

问题 1:“Out of Memory”显存不足

解决

  1. 降低分辨率。
  2. 开启模型卸载(Model Offloading)。
  3. 使用 INT4 / FP8 量化模型。

问题 2:生成速度极慢

原因

  • 在用 CPU 跑,没调用 GPU。
  • 驱动 / PyTorch 异常。
  • 步数/分辨率过高。

解决

  1. 确认终端显示“Using NVIDIA GPU”。
  2. 重装 GPU 版 PyTorch。
  3. 使用快速采样器,降低步数。

6. 插件/扩展相关崩溃

现象:装了某个节点后 ComfyUI 闪退。

解决

  1. 删除 custom_nodes/ 里对应插件文件夹。
  2. 安装插件所需依赖。
  3. 尽量用管理器安装兼容插件。

7. 文字生成模糊 / 不正确

原因:常规扩散模型本身不擅长精确定位文字。

解决

  1. 使用支持文字的模型(FLUX.1 Kontext 等)。
  2. 只用简短大写单词。
  3. 后期在 PS 里加文字。

避免问题的最佳实践

  1. 模型文件夹分类整理。
  2. 保存可用的工作流备份。
  3. 新模型先简单测试再用于复杂流程。
  4. 定期更新 ComfyUI 和节点。
  5. 时刻关注显存占用。