怎样在Linux上安装Stable Diffusion

AI技术
小华
2025-12-02

Linux上安装Stable Diffusion的简明步骤
一 环境准备

  • 硬件建议:NVIDIA 显卡(显存≥4GB,推荐8GB+)、内存≥16GB、可用存储≥20GB(建议 SSD)。
  • 基础工具:安装 Python 3.10Git,并准备 CUDA/cuDNN 与对应版本的 PyTorch(后续由脚本/容器自动匹配更稳妥)。
  • 验证命令:nvidia-smi(查看驱动与 CUDA 版本)、python3 --versiongit --version
  • 说明:以下步骤以 Ubuntu/Debian 为主,也给出 CentOS/RHEL 的关键差异。

二 方法一 原生安装 AUTOMATIC1111 WebUI(推荐)

  • 安装依赖
  • Ubuntu/Debian:
sudo apt update
sudo apt install -y python3.10 python3-venv python3-dev git
  • CentOS/RHEL(或兼容发行版):
sudo yum install -y git
# 可编译安装 Python 3.10.6 或使用 conda 管理环境
  • 获取代码与创建虚拟环境
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
python3 -m venv venv
source venv/bin/activate
  • 安装依赖与启动
pip install -U pip
pip install -r requirements.txt
# 可选:使用 xFormers 加速(NVIDIA 显卡)
echo 'export COMMANDLINE_ARGS="--xformers"' >> webui-user.sh
./webui.sh
  • 访问界面:浏览器打开 http://127.0.0.1:7860;如需局域网访问,放行防火墙端口(如 sudo ufw allow 7860/tcp)。

三 方法二 Docker 部署(更干净、易迁移)

  • 安装 Docker 与 NVIDIA 容器支持(Ubuntu/Debian 示例)
sudo apt update
sudo apt install -y docker.io nvidia-driver-535 nvidia-container-toolkit
sudo systemctl restart docker
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
  • 准备数据与模型目录
mkdir -p ~/stable-diffusion/{models,outputs}
  • 启动容器(使用官方镜像)
docker run -d --gpus all \
-p 7860:7860 \
-v ~/stable-diffusion/models:/app/models \
-v ~/stable-diffusion/outputs:/app/outputs \
--name sd-webui \
ghcr.io/automatic1111-webui/stable-diffusion-webui:latest

四 模型放置与常用优化

  • 放置模型:将权重(如 v1-5-pruned-emaonly.safetensors)放入 models/Stable-diffusion,刷新 WebUI 即可使用。
  • 显存与速度优化:
  • 添加启动参数 --xformers 提升速度与显存效率(NVIDIA)。
  • 显存不足时使用 --medvram 或降低分辨率;依赖冲突时重建虚拟环境再安装。

五 常见问题与排查

  • CUDA 内存不足:添加 --medvram、降低分辨率或批量大小。
  • 依赖冲突:在干净的 venv/conda 环境中重装依赖。
  • 模型加载失败:核对模型文件完整性与路径,必要时校验 SHA256
  • 国内网络慢/失败:为 gitpip 配置镜像源(如清华源)或使用代理。
  • 远程访问失败:放行防火墙端口(如 7860/tcp)并使用服务器 IP:7860 访问。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序