Linux上Stable Diffusion的主流安装途径
一 原生安装 AUTOMATIC1111 WebUI
1) 安装系统依赖与工具:sudo apt update && sudo apt install -y git python3 python3-venv python3-dev;如需GPU,先安装NVIDIA驱动与CUDA/cuDNN。
2) 克隆仓库:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git && cd stable-diffusion-webui。
3) 创建并激活虚拟环境:python3 -m venv venv && source venv/bin/activate。
4) 启动安装与运行:./webui.sh(会自动安装依赖;如需加速可加参数:--xformers;显存优化可用 --medvram 或 --lowvram)。
5) 访问界面:浏览器打开 http://127.0.0.1:7860;远程访问使用服务器IP与端口。
6) 常见问题速解:
二 容器化部署 Docker 或 Podman
1) 安装 Docker 与 NVIDIA 容器支持:sudo apt update && sudo apt install -y docker.io nvidia-driver-535 nvidia-container-toolkit && sudo systemctl restart docker。
2) 准备本地持久化目录:mkdir -p ~/stable-diffusion/{models,outputs}。
3) 拉取并运行容器(示例):
docker run -d --gpus all -p 7860:7860 \
-v ~/stable-diffusion/models:/app/models \
-v ~/stable-diffusion/outputs:/app/outputs \
--name sd-webui ghcr.io/automatic1111-webui/stable-diffusion-webui:latest
4) 访问界面:http://localhost:7860。
5) 说明:在 RHEL/CentOS 等发行版上可使用 Podman 作为无守护进程替代方案,命令与 Docker 近似(如 podman run ...)。
6) 提示:容器方式同样支持在启动命令中加入 WebUI 参数(如 --xformers、--medvram),具体取决于镜像的启动脚本支持。
三 轻量库方式 diffusers + Transformers + Accelerate
1) 创建虚拟环境:conda create -n sd-env python=3.10 && conda activate sd-env。
2) 安装核心依赖:pip install diffusers transformers accelerate safetensors ftfy。pip 会自动拉取与当前环境匹配的 PyTorch GPU 版本(如 2.6.0+cu124)。
3) 运行最小示例(txt2img):
from diffusers import StableDiffusionPipeline
import torch
pipe = StableDiffusionPipeline.from_pretrained("runwayml/stable-diffusion-v1-5", torch_dtype=torch.float16).to("cuda")
image = pipe("a photo of an astronaut riding a horse on mars").images[0]
image.save("astronaut.png")
4) 说明:该方式灵活可定制,适合集成到 FastAPI/Flask、Celery 任务队列或推理服务中。
四 选型与注意事项