Windows下ComfyUI部署指南

AI技术
小华
2026-01-03

Windows 下 ComfyUI 部署指南
一 方案速选

  • 追求省心与稳定:使用官方 Windows 独立整合包(Portable Standalone Build),解压即用,内置 Python 与 CUDA 环境,适合 NVIDIA RTX 20/30/40 系列,也提供 CPU 版 备选。
  • 需要可定制与多项目隔离:使用 源码 + Conda/venv 手动部署,灵活控制 Python/CUDA/依赖版本,便于插件开发与调试。
  • 低显存设备(如 6GB/8GB):优先选择独立包或量化模型,并配合启动参数与显存优化策略。

二 硬件与软件要求

  • 操作系统:Windows 10/11 64 位
  • GPU:优先 NVIDIA 显卡(CUDA)AMD 在 Windows 上支持有限(多建议 Linux);Intel 集显 可 CPU 运行但速度较慢。
  • 显存建议:基础 SD 1.5 流畅运行建议 ≥6GB,更大模型(如 SDXL)或高分辨率建议 ≥8GB
  • 内存:≥16GB 更稳。
  • 存储:至少 20GB+ 可用空间(模型与依赖体积较大)。

三 方法一 独立整合包最快上手(推荐)

  • 步骤 1 准备
  • 安装 Git(为后续安装插件与管理器)。
  • 下载官方整合包:在 GitHub Releases 获取文件名包含 ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z 的安装包(版本号会变化)。
  • 步骤 2 解压与路径
  • 将压缩包解压到路径较短且不含中文的位置,例如:D:ComfyUI
  • 步骤 3 安装管理器(可选但强烈推荐)
  • 进入目录:D:ComfyUIComfyUI_windows_portableComfyUIcustom_nodes
  • 在地址栏输入 cmd 回车,执行:
  • git clone https://github.com/ltdrdata/ComfyUI-Manager.git
  • 步骤 4 放置模型
  • 将基础模型(Checkpoint)放入:…ComfyUImodelscheckpoints
  • 国内下载可将模型地址中的 huggingface.co 替换为 hf-mirror.com 提升速度。
  • 步骤 5 启动与更新
  • NVIDIA GPU:双击运行 run_nvidia_gpu.bat;CPU:运行 run_cpu.bat
  • 保持更新:运行 updateupdate_comfyui.bat 或使用 Manager 内置更新。

四 方法二 源码手动部署(灵活可控)

  • 步骤 1 安装工具
  • 安装 Miniconda/Anaconda;安装 Git
  • 步骤 2 创建环境
  • conda create -n comfyui python=3.12
  • conda activate comfyui
  • 步骤 3 安装 PyTorch(CUDA 12.4 示例)
  • pip install torch torchvision torchaudio xformers --index-url https://download.pytorch.org/whl/cu124
  • 步骤 4 获取源码与依赖
  • git clone https://github.com/comfyanonymous/ComfyUI
  • cd ComfyUI
  • pip install -r requirements.txt
  • 步骤 5 启动
  • python main.py(默认端口 8188,浏览器访问 http://127.0.0.1:8188

五 常见问题与优化

  • 显存不足与启动参数
  • run_nvidia_gpu.bat 的启动命令末尾追加参数:如 --lowvram(牺牲速度换取稳定);必要时可配合 --medvram
  • 依赖安装慢或失败
  • 使用国内镜像加速:pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple
  • 提升稳定性:--timeout 1000 --retries 10
  • 内置 Python 环境建议使用:python -m pip install -r requirements.txt(避免调用到系统 pip)。
  • 验证 GPU 是否可用
  • python -c "import torch; print(torch.cuda.is_available())" 应为 True
  • 模型放置路径
  • 主模型:models/checkpoints;VAE:models/vae;文本编码器:models/text_encoders
  • 共享现有 Stable Diffusion WebUI 的模型与插件
  • 复制根目录的 extra_model_paths.yaml.exampleextra_model_paths.yaml,修改 base_path 指向 WebUI 根目录,即可复用模型与插件。
  • 插件安装与管理
  • 推荐安装 ComfyUI-Manager,支持一键安装缺失节点与工作流依赖。
  • 低显存设备建议
  • 选择 量化模型(如 FP8/INT8),例如 zImage Turbo 量化版,显著降低显存占用。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序