Linux 部署 Stable Diffusion 的必备条件
硬件要求
- GPU 与显存
- 最低可用:NVIDIA 显卡,显存 ≥ 4GB(如 GTX 1050 Ti),需安装支持 CUDA 11.0+ 的驱动;体验一般,易 OOM。
- 推荐:显存 ≥ 8GB(如 RTX 3060 12GB 及以上),可流畅跑 768–1024px、适中步数;复杂场景与放大更稳。
- 进阶:显存 ≥ 16GB(如 RTX 4060 Ti 16GB / 4090),可加载更大模型、使用高分辨率与更多扩展。
- 系统内存与存储
- 内存:≥ 16GB 起步,推荐 32GB 或更高,减少换页与卡顿。
- 存储:至少 10GB 可用空间用于依赖与权重;推荐 NVMe SSD 并预留 数百 GB(模型、缓存、日志会持续增长)。
软件与驱动要求
- 操作系统与基础工具
- 发行版:推荐 Ubuntu 20.04/22.04 LTS(或兼容的 CentOS/RHEL 等)。
- 工具链:Git、Python 3.8–3.11、venv/conda、wget/curl。
- Python 与深度学习栈
- Python:3.8–3.11(WebUI 常见搭配为 3.10.x)。
- PyTorch:安装与驱动/CUDA 匹配的 GPU 版本(如 cu113/cu117/cu124 等预编译包)。
- 常用库:diffusers、transformers、accelerate、safetensors、ftfy;按需补充 protobuf、sentencepiece、peft、torchvision、datasets。
- GPU 驱动与计算栈
- NVIDIA 驱动与 CUDA Toolkit(版本需与 PyTorch 预编译包匹配)。
- 可选:cuDNN(多数 PyTorch 预编译包已内置所需 CUDA 运行时,无需单独装系统级 cuDNN)。
网络与模型获取
- 模型与依赖下载
- 权重托管于 Hugging Face,需同意模型协议并使用 huggingface-cli login 获取访问令牌;国内直连可能较慢或不稳定,可提前在本地下载后离线放置。
- 访问与端口
- WebUI 默认本地访问 http://127.0.0.1:7860;远程访问需放行防火墙/安全组端口(如 7860/tcp),或使用 SSH 隧道 转发端口。
容器化部署补充
- Docker 与 GPU 支持
- 安装 Docker 与 NVIDIA Container Toolkit,运行时开启 --gpus all 并正确设置 NVIDIA_VISIBLE_DEVICES 等环境变量。
- 拉取并启动带有 GPU 支持的 Stable Diffusion WebUI 镜像,映射端口(如 7860)供浏览器访问。
快速自检清单
- 执行 nvidia-smi 可见 GPU 与驱动版本;执行 python -V 确认 Python 3.8–3.11。
- 能 git clone 与 pip install 主流库(如 torch、diffusers、transformers)。
- 已准备 Hugging Face 账号与令牌,或将权重文件离线放置到指定目录。
- 服务器环境已开放 7860/tcp 或已配置 SSH 隧道 用于远程访问。