Windows 下 ComfyUI 部署指南
一 方案速选
- 追求省心与稳定:使用官方 Windows 独立整合包(Portable Standalone Build),解压即用,内置 Python 与 CUDA 环境,适合 NVIDIA RTX 20/30/40 系列,也提供 CPU 版 备选。
- 需要可定制与多项目隔离:使用 源码 + Conda/venv 手动部署,灵活控制 Python/CUDA/依赖版本,便于插件开发与调试。
- 低显存设备(如 6GB/8GB):优先选择独立包或量化模型,并配合启动参数与显存优化策略。
二 硬件与软件要求
- 操作系统:Windows 10/11 64 位。
- GPU:优先 NVIDIA 显卡(CUDA);AMD 在 Windows 上支持有限(多建议 Linux);Intel 集显 可 CPU 运行但速度较慢。
- 显存建议:基础 SD 1.5 流畅运行建议 ≥6GB,更大模型(如 SDXL)或高分辨率建议 ≥8GB。
- 内存:≥16GB 更稳。
- 存储:至少 20GB+ 可用空间(模型与依赖体积较大)。
三 方法一 独立整合包最快上手(推荐)
- 步骤 1 准备
- 安装 Git(为后续安装插件与管理器)。
- 下载官方整合包:在 GitHub Releases 获取文件名包含 ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z 的安装包(版本号会变化)。
- 步骤 2 解压与路径
- 将压缩包解压到路径较短且不含中文的位置,例如:D:ComfyUI。
- 步骤 3 安装管理器(可选但强烈推荐)
- 进入目录:D:ComfyUIComfyUI_windows_portableComfyUIcustom_nodes
- 在地址栏输入 cmd 回车,执行:
- git clone https://github.com/ltdrdata/ComfyUI-Manager.git
- 步骤 4 放置模型
- 将基础模型(Checkpoint)放入:…ComfyUImodelscheckpoints
- 国内下载可将模型地址中的 huggingface.co 替换为 hf-mirror.com 提升速度。
- 步骤 5 启动与更新
- NVIDIA GPU:双击运行 run_nvidia_gpu.bat;CPU:运行 run_cpu.bat。
- 保持更新:运行 updateupdate_comfyui.bat 或使用 Manager 内置更新。
四 方法二 源码手动部署(灵活可控)
五 常见问题与优化
- 显存不足与启动参数
- 在 run_nvidia_gpu.bat 的启动命令末尾追加参数:如 --lowvram(牺牲速度换取稳定);必要时可配合 --medvram。
- 依赖安装慢或失败
- 使用国内镜像加速:pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
- 提升稳定性:--timeout 1000 --retries 10
- 内置 Python 环境建议使用:python -m pip install -r requirements.txt(避免调用到系统 pip)。
- 验证 GPU 是否可用
- python -c "import torch; print(torch.cuda.is_available())" 应为 True。
- 模型放置路径
- 主模型:models/checkpoints;VAE:models/vae;文本编码器:models/text_encoders。
- 共享现有 Stable Diffusion WebUI 的模型与插件
- 复制根目录的 extra_model_paths.yaml.example 为 extra_model_paths.yaml,修改 base_path 指向 WebUI 根目录,即可复用模型与插件。
- 插件安装与管理
- 推荐安装 ComfyUI-Manager,支持一键安装缺失节点与工作流依赖。
- 低显存设备建议
- 选择 量化模型(如 FP8/INT8),例如 zImage Turbo 量化版,显著降低显存占用。