Stable Diffusion在Linux的部署步骤

AI技术
小华
2025-08-06

以下是在Linux系统部署Stable Diffusion的步骤(以Ubuntu为例):

一、基础环境准备

  1. 安装Python 3.10+
sudo apt update
sudo apt install python3.10 python3.10-venv python3-pip
  1. 安装依赖库
sudo apt install git libgl1 libglib2.0-0
  1. 安装NVIDIA驱动与CUDA(需N卡支持GPU加速)
  • 从Nvidia官网下载对应型号驱动,执行安装脚本(如sudo sh ./NVIDIA-Linux-x86_64-xxx.run),安装后重启系统。
  • 安装CUDA Toolkit(参考Nvidia官方文档),确保版本与Stable Diffusion兼容(如CUDA 11.8)。

二、部署Stable Diffusion WebUI

  1. 克隆项目源码
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
cd stable-diffusion-webui
  1. 创建虚拟环境并激活
python3.10 -m venv venv
source venv/bin/activate
  1. 安装Python依赖
pip install --upgrade pip
pip install -r requirements.txt

若需加速下载,可替换pip源为国内镜像(如清华源):

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt

三、配置与启动

  1. 下载模型文件
  • Hugging Face或镜像站点下载模型(如v1-5-pruned.ckpt),放置到models/Stable-diffusion/目录。
  1. 启动服务
./webui.sh

常用参数:

  • --xformers:启用内存优化(仅限N卡)。
  • --port 7860:指定访问端口(默认7860)。
  • --share:生成临时公网访问链接(需搭配--listen)。

四、访问与验证

  • 通过浏览器访问:http://localhost:7860(或服务器公网IP+端口)。
  • 首次启动需等待模型加载,成功后即可输入文本生成图像。

常见问题及解决

  1. 网络连接失败
  • 若因防火墙拦截,开放对应端口:
sudo ufw allow 7860/tcp
sudo ufw reload
  1. CUDA报错
  • 确保驱动与CUDA版本匹配,可通过nvidia-smi检查驱动状态。
  1. 依赖冲突
  • 使用虚拟环境隔离不同项目的Python包,避免版本冲突。

可选优化

  • 使用Docker部署:通过官方镜像stabilityai/stable-diffusion-2-1快速部署,支持GPU加速且环境隔离。
  • 插件扩展:在WebUI界面手动安装插件(如ControlNet、LoRA),增强功能。

参考来源

亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序