ComfyUI在Windows上的最佳部署方式

AI技术
小华
2026-01-03

Windows 上部署 ComfyUI 的推荐路径

  • 首选方案:使用官方的 Windows 独立便携包(Portable Standalone Build),解压即用、自带嵌入式 PythonCUDA,避免系统级环境冲突,适合 NVIDIA RTX 20/30/40 系列用户。
  • 团队协作与可复现:使用 Docker 镜像 + WSL2,一条命令启动,环境一致、迁移方便,适合需要标准化交付与多机部署的场景。
  • 进阶自定义:源码 + venv/conda 手动安装,完全可控,适合需要特定版本依赖或深度定制的用户。
  • 新手整合包:选择社区维护的一键整合包(如 秋叶整合包),预装常用节点与依赖,上手更快。

方式一 官方 Windows 便携包 最快上手

  • 准备
  • 安装 Git(用于后续安装插件/管理器)。
  • 下载官方便携包:在 GitHub Releases 获取形如 ComfyUI_windows_portable_nvidia_cu121_or_cpu.7z 的文件(文件名会随版本变化)。
  • 安装与路径
  • 将压缩包解压到路径短且无中文的位置,例如:D:ComfyUI
  • 必备插件
  • 进入 ComfyUIcustom_nodes,右键打开终端执行:
  • git clone https://github.com/ltdrdata/ComfyUI-Manager.git
  • 模型放置
  • 大模型(Checkpoint)放入:ComfyUImodelscheckpoints;其他模型(VAE/LoRA/ControlNet 等)放入对应子目录。
  • 启动与更新
  • NVIDIA 显卡双击 run_nvidia_gpu.bat;CPU 运行 run_cpu.bat
  • 定期在 update 目录运行 update_comfyui.bat 保持版本最新。
  • 显存优化(可选)
  • 编辑 bat,在 python 命令末尾添加 --lowvram 以降低显存占用(会牺牲一定速度)。

方式二 Docker 镜像 + WSL2 可复现与易迁移

  • 前置条件
  • 安装 Docker Desktop for Windows(启用 WSL2 后端)。
  • 在 Windows 安装最新 NVIDIA 驱动(建议 ≥ 535.54.01)。
  • 配置 WSL2 资源(避免 OOM)
  • 在用户目录创建 %USERPROFILE%.wslconfig
  • [wsl2]
  • memory=8GB
  • swap=8GB
  • processors=6
  • 执行 wsl --shutdown 后重启 WSL。
  • 安装 nvidia-container-toolkit(在 WSL 发行版内)
  • 添加源并安装:
  • curl -s -L https://nvidia.github.io/nvidia-docker/gpgkey | sudo apt-key add -
  • curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | sudo tee /etc/apt/sources.list.d/nvidia-docker.list
  • sudo apt-get update && sudo apt-get install -y nvidia-container-toolkit
  • sudo systemctl restart docker
  • 验证 GPU:docker run --rm --gpus all nvidia/cuda:12.2-base-ubuntu22.04 nvidia-smi
  • 启动 ComfyUI
  • docker run -d --name comfyui -p 8188:8188 ghcr.io/comfyanonymous/comfyui:latest
  • 浏览器访问:http://localhost:8188

方式三 源码 + venv/conda 手动安装 完全可控

  • 准备
  • 安装 Python 3.10/3.12Git,建议使用 venvMiniconda 管理环境。
  • 部署步骤
  • git clone https://github.com/comfyanonymous/ComfyUI
  • 创建并激活环境(示例):conda create -n comfyui python=3.12 && conda activate comfyui
  • 安装 PyTorch(CUDA 示例):pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu124
  • 安装依赖:pip install -r requirements.txt
  • 启动与常用参数
  • python main.py(或 python -s main.py --windows-standalone-build)
  • 常用:--listen(允许局域网访问)、--port 8188(指定端口)。

关键配置与优化要点

  • 路径规范
  • 安装与模型路径尽量使用短路径且不含中文/空格,减少依赖与路径解析错误。
  • 模型共享
  • 若本地已有 WebUI,可在 ComfyUI 根目录复制 extra_model_paths.yaml.exampleextra_model_paths.yaml,设置 base_path 指向 WebUI 根目录,实现模型/插件共用。
  • 插件管理
  • 通过 ComfyUI-Manager 一键安装缺失节点与依赖,导入他人工作流时尤为高效。
  • 显存与性能
  • 显存紧张时可添加启动参数 --lowvram;WSL2 场景建议按上文配置 memory/swap/processors,避免加载大模型时 OOM。
  • 访问与端口
  • 默认端口 8188;如需局域网访问,启动时加上 --listen

常见问题快速排查

  • GPU 不可用或 CUDA 报错
  • 确认 NVIDIA 驱动版本足够新;Docker 场景先在 WSL 内跑通 nvidia-smi;源码场景在 Python 中验证 torch.cuda.is_available()True
  • 依赖冲突/安装失败
  • 使用 venv/conda 隔离环境;必要时更换 PyTorch 的 CUDA 版本或切换镜像源重试。
  • 模型加载失败
  • 检查模型是否放在正确子目录(如 models/checkpoints),文件格式是否为 .ckpt/.safetensors
  • 端口被占用
  • 启动时指定其他端口:--port 1234
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序