Linux部署Stable Diffusion需啥条件

AI技术
小华
2025-12-31

Linux 部署 Stable Diffusion 的必备条件
硬件要求

  • GPU 与显存
  • 最低可用:NVIDIA 显卡,显存 ≥ 4GB(如 GTX 1050 Ti),需安装支持 CUDA 11.0+ 的驱动;体验一般,易 OOM。
  • 推荐:显存 ≥ 8GB(如 RTX 3060 12GB 及以上),可流畅跑 768–1024px、适中步数;复杂场景与放大更稳。
  • 进阶:显存 ≥ 16GB(如 RTX 4060 Ti 16GB / 4090),可加载更大模型、使用高分辨率与更多扩展。
  • 系统内存与存储
  • 内存:≥ 16GB 起步,推荐 32GB 或更高,减少换页与卡顿。
  • 存储:至少 10GB 可用空间用于依赖与权重;推荐 NVMe SSD 并预留 数百 GB(模型、缓存、日志会持续增长)。

软件与驱动要求

  • 操作系统与基础工具
  • 发行版:推荐 Ubuntu 20.04/22.04 LTS(或兼容的 CentOS/RHEL 等)。
  • 工具链:Git、Python 3.8–3.11、venv/conda、wget/curl
  • Python 与深度学习栈
  • Python:3.8–3.11(WebUI 常见搭配为 3.10.x)。
  • PyTorch:安装与驱动/CUDA 匹配的 GPU 版本(如 cu113/cu117/cu124 等预编译包)。
  • 常用库:diffusers、transformers、accelerate、safetensors、ftfy;按需补充 protobuf、sentencepiece、peft、torchvision、datasets
  • GPU 驱动与计算栈
  • NVIDIA 驱动CUDA Toolkit(版本需与 PyTorch 预编译包匹配)。
  • 可选:cuDNN(多数 PyTorch 预编译包已内置所需 CUDA 运行时,无需单独装系统级 cuDNN)。

网络与模型获取

  • 模型与依赖下载
  • 权重托管于 Hugging Face,需同意模型协议并使用 huggingface-cli login 获取访问令牌;国内直连可能较慢或不稳定,可提前在本地下载后离线放置。
  • 访问与端口
  • WebUI 默认本地访问 http://127.0.0.1:7860;远程访问需放行防火墙/安全组端口(如 7860/tcp),或使用 SSH 隧道 转发端口。

容器化部署补充

  • Docker 与 GPU 支持
  • 安装 DockerNVIDIA Container Toolkit,运行时开启 --gpus all 并正确设置 NVIDIA_VISIBLE_DEVICES 等环境变量。
  • 拉取并启动带有 GPU 支持的 Stable Diffusion WebUI 镜像,映射端口(如 7860)供浏览器访问。

快速自检清单

  • 执行 nvidia-smi 可见 GPU 与驱动版本;执行 python -V 确认 Python 3.8–3.11
  • git clonepip install 主流库(如 torch、diffusers、transformers)。
  • 已准备 Hugging Face 账号与令牌,或将权重文件离线放置到指定目录。
  • 服务器环境已开放 7860/tcp 或已配置 SSH 隧道 用于远程访问。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序