Windows 上部署 ComfyUI 的推荐路径
- 首选方案:使用官方的 Windows 独立便携包(Portable Standalone Build),解压即用、自带嵌入式 Python 与 CUDA,避免系统级环境冲突,适合 NVIDIA RTX 20/30/40 系列用户。
- 团队协作与可复现:使用 Docker 镜像 + WSL2,一条命令启动,环境一致、迁移方便,适合需要标准化交付与多机部署的场景。
- 进阶自定义:源码 + venv/conda 手动安装,完全可控,适合需要特定版本依赖或深度定制的用户。
- 新手整合包:选择社区维护的一键整合包(如 秋叶整合包),预装常用节点与依赖,上手更快。
方式一 官方 Windows 便携包 最快上手
- 准备
- 安装 Git(用于后续安装插件/管理器)。
- 下载官方便携包:在 GitHub Releases 获取形如 ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z 的文件(文件名会随版本变化)。
- 安装与路径
- 将压缩包解压到路径短且无中文的位置,例如:D:ComfyUI。
- 必备插件
- 进入 ComfyUIcustom_nodes,右键打开终端执行:
- git clone https://github.com/ltdrdata/ComfyUI-Manager.git
- 模型放置
- 大模型(Checkpoint)放入:ComfyUImodelscheckpoints;其他模型(VAE/LoRA/ControlNet 等)放入对应子目录。
- 启动与更新
- NVIDIA 显卡双击 run_nvidia_gpu.bat;CPU 运行 run_cpu.bat。
- 定期在 update 目录运行 update_comfyui.bat 保持版本最新。
- 显存优化(可选)
- 编辑 bat,在 python 命令末尾添加 --lowvram 以降低显存占用(会牺牲一定速度)。
方式二 Docker 镜像 + WSL2 可复现与易迁移
- 前置条件
- 安装 Docker Desktop for Windows(启用 WSL2 后端)。
- 在 Windows 安装最新 NVIDIA 驱动(建议 ≥ 535.54.01)。
- 配置 WSL2 资源(避免 OOM)
- 在用户目录创建 %USERPROFILE%.wslconfig:
- [wsl2]
- memory=8GB
- swap=8GB
- processors=6
- 执行 wsl --shutdown 后重启 WSL。
- 安装 nvidia-container-toolkit(在 WSL 发行版内)
- 添加源并安装:
- curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
- curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
- sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
- sudo systemctl restart docker
- 验证 GPU:docker run --rm --gpus all nvidia/cuda:12.2-base-ubuntu22.04 nvidia-smi
- 启动 ComfyUI
- docker run -d --name comfyui -p 8188:8188 ghcr.io/comfyanonymous/comfyui:latest
- 浏览器访问:http://localhost:8188。
方式三 源码 + venv/conda 手动安装 完全可控
- 准备
- 安装 Python 3.10/3.12、Git,建议使用 venv 或 Miniconda 管理环境。
- 部署步骤
- git clone https://github.com/comfyanonymous/ComfyUI
- 创建并激活环境(示例):conda create -n comfyui python=3.12 && conda activate comfyui
- 安装 PyTorch(CUDA 示例):pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
- 安装依赖:pip install -r requirements.txt
- 启动与常用参数
- python main.py(或 python -s main.py --windows-standalone-build)
- 常用:--listen(允许局域网访问)、--port 8188(指定端口)。
关键配置与优化要点
- 路径规范
- 安装与模型路径尽量使用短路径且不含中文/空格,减少依赖与路径解析错误。
- 模型共享
- 若本地已有 WebUI,可在 ComfyUI 根目录复制 extra_model_paths.yaml.example 为 extra_model_paths.yaml,设置 base_path 指向 WebUI 根目录,实现模型/插件共用。
- 插件管理
- 通过 ComfyUI-Manager 一键安装缺失节点与依赖,导入他人工作流时尤为高效。
- 显存与性能
- 显存紧张时可添加启动参数 --lowvram;WSL2 场景建议按上文配置 memory/swap/processors,避免加载大模型时 OOM。
- 访问与端口
- 默认端口 8188;如需局域网访问,启动时加上 --listen。
常见问题快速排查
- GPU 不可用或 CUDA 报错
- 确认 NVIDIA 驱动版本足够新;Docker 场景先在 WSL 内跑通 nvidia-smi;源码场景在 Python 中验证 torch.cuda.is_available() 为 True。
- 依赖冲突/安装失败
- 使用 venv/conda 隔离环境;必要时更换 PyTorch 的 CUDA 版本或切换镜像源重试。
- 模型加载失败
- 检查模型是否放在正确子目录(如 models/checkpoints),文件格式是否为 .ckpt/.safetensors。
- 端口被占用
- 启动时指定其他端口:--port 1234。