Linux上Stable Diffusion的安装途径

AI技术
小华
2025-12-02

Linux上Stable Diffusion的主流安装途径
一 原生安装 AUTOMATIC1111 WebUI

  • 适用人群:希望在本地或服务器上获得完整功能的一站式界面(txt2img、img2img、图生图、脚本扩展等)。
  • 基本步骤:

1) 安装系统依赖与工具:sudo apt update && sudo apt install -y git python3 python3-venv python3-dev;如需GPU,先安装NVIDIA驱动CUDA/cuDNN
2) 克隆仓库:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git && cd stable-diffusion-webui。
3) 创建并激活虚拟环境:python3 -m venv venv && source venv/bin/activate。
4) 启动安装与运行:./webui.sh(会自动安装依赖;如需加速可加参数:--xformers;显存优化可用 --medvram 或 --lowvram)。
5) 访问界面:浏览器打开 http://127.0.0.1:7860;远程访问使用服务器IP与端口。
6) 常见问题速解:

  • 报错 “Cannot locate TCMalloc” → 安装 libtcmalloc:sudo apt install libgoogle-perftools4 libtcmalloc-minimal4 -y。
  • 以 root 运行被拒 → 使用 ./webui.sh -f 绕过(仅在可信环境下)。
  • Hugging Face 连接失败 → 预先下载所需模型/Tokenizer到本地并配置缓存路径,或配置网络代理。

二 容器化部署 Docker 或 Podman

  • 适用人群:追求环境隔离、快速部署、易于迁移与升级的场景。
  • 基本步骤(以 Docker 为例):

1) 安装 Docker 与 NVIDIA 容器支持:sudo apt update && sudo apt install -y docker.io nvidia-driver-535 nvidia-container-toolkit && sudo systemctl restart docker。
2) 准备本地持久化目录:mkdir -p ~/stable-diffusion/{models,outputs}。
3) 拉取并运行容器(示例):
docker run -d --gpus all -p 7860:7860 \
-v ~/stable-diffusion/models:/app/models \
-v ~/stable-diffusion/outputs:/app/outputs \
--name sd-webui ghcr.io/automatic1111-webui/stable-diffusion-webui:latest
4) 访问界面:http://localhost:7860
5) 说明:在 RHEL/CentOS 等发行版上可使用 Podman 作为无守护进程替代方案,命令与 Docker 近似(如 podman run ...)。
6) 提示:容器方式同样支持在启动命令中加入 WebUI 参数(如 --xformers、--medvram),具体取决于镜像的启动脚本支持。
三 轻量库方式 diffusers + Transformers + Accelerate

  • 适用人群:开发者、脚本化批量生成、与现有 Python 服务集成。
  • 基本步骤:

1) 创建虚拟环境:conda create -n sd-env python=3.10 && conda activate sd-env。
2) 安装核心依赖:pip install diffusers transformers accelerate safetensors ftfy。pip 会自动拉取与当前环境匹配的 PyTorch GPU 版本(如 2.6.0+cu124)。
3) 运行最小示例(txt2img):
from diffusers import StableDiffusionPipeline
import torch
pipe = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", torch_dtype=torch.float16).to("cuda")
image = pipe("a photo of an astronaut riding a horse on mars").images[0]
image.save("astronaut.png")
4) 说明:该方式灵活可定制,适合集成到 FastAPI/Flask、Celery 任务队列或推理服务中。
四 选型与注意事项

  • 硬件建议:至少 NVIDIA GPU 4GB 显存(推荐 RTX 3060 及以上)、内存 16GB+、存储 20GB+ SSD,以保证基础模型与依赖的流畅运行与下载。
  • 版本匹配:确保 Python、PyTorch、CUDA/cuDNN 版本相互兼容;出现 RuntimeError/加载失败时优先核对版本组合与驱动是否正常。
  • 网络与模型:首次运行会从 Hugging Face 拉取权重与 Tokenizer,网络不稳可预先下载并设置本地缓存路径。
  • 远程访问与防火墙:开放对应端口(如 7860),并确保云服务器安全组/本机防火墙已放行。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序