怎样让Linux安装Stable Diffusion

AI技术
小华
2025-12-02

Linux安装Stable Diffusion的可行方案
一 方案总览与准备

  • 推荐两种路径:
  • 原生安装:使用 AUTOMATIC1111/stable-diffusion-webui,在 Python 3.10 虚拟环境里一键拉取依赖并启动,适合桌面/服务器直跑。
  • Docker 安装:使用官方镜像或社区镜像,数据卷挂载模型与输出,环境隔离、迁移方便。
  • 硬件建议:
  • GPU:NVIDIA 显卡,显存至少 4GB(推荐 8GB+,如 RTX 3060 及以上)。
  • 内存:16GB+
  • 存储:可用空间 20GB+(实际会因模型变大到 60GB–100GB)。
  • 基础依赖(Ubuntu/Debian 示例):
  • 安装工具与编译链:sudo apt update && sudo apt install -y git python3.10 python3-venv python3-dev build-essential
  • 验证驱动与工具:nvidia-smi(查看驱动/CUDA)、nvcc --version(查看 CUDA 编译器)。

二 原生安装步骤(Ubuntu/Debian 通用)

  • 克隆仓库并进入目录:
  • git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
  • cd stable-diffusion-webui
  • 创建并激活虚拟环境(Python 3.10):
  • python3 -m venv venv
  • source venv/bin/activate
  • 安装依赖并启动:
  • pip install -U pip
  • pip install -r requirements.txt
  • 可选加速:在启动前导出环境变量 export COMMANDLINE_ARGS="--xformers"(需 NVIDIA 且 PyTorch 支持)
  • ./webui.sh
  • 访问界面:浏览器打开 http://127.0.0.1:7860;如需局域网访问,开放防火墙端口(如 sudo ufw allow 7860/tcp)并用服务器 IP:7860 访问。

三 Docker 安装步骤(更干净、易迁移)

  • 安装 Docker 与 NVIDIA 容器支持(Ubuntu/Debian 示例):
  • sudo apt update && sudo apt install -y docker.io
  • 安装 nvidia-driver-535nvidia-container-toolkit,然后 sudo systemctl restart docker
  • 准备数据与模型目录:
  • mkdir -p ~/stable-diffusion/{models,outputs}
  • 拉取并运行容器(示例镜像,端口 7860):
  • `docker run -d --gpus all \

-p 7860:7860 \
-v ~/stable-diffusion/models:/app/models \
-v ~/stable-diffusion/outputs:/app/outputs \
--name sd-webui \
ghcr.io/automatic1111-webui/stable-diffusion-webui:latest`

  • 访问界面:http://localhost:7860。如需自定义端口或挂载更多目录,按需调整 -p-v 参数。

四 模型放置与常用启动参数

  • 放置模型权重:
  • 将模型文件(如 v1-5-pruned-emaonly.safetensors)放入:models/Stable-diffusion/
  • 常用启动参数(通过 export COMMANDLINE_ARGS="..." 设置):
  • --xformers:显著降低显存占用并提升速度(NVIDIA 推荐)
  • --medvram / --lowvram:显存优化,适合 6GB–8GB 显卡
  • --port 7890:更换端口
  • --share:生成临时公网访问地址(有效期约 72 小时
  • 示例:export COMMANDLINE_ARGS="--xformers --medvram --port 7890" 后启动 ./webui.sh

五 常见问题与排查

  • CUDA/显存不足:
  • 添加 --medvram 或降低分辨率;确保使用支持 CUDA 的 PyTorch 版本。
  • 依赖冲突或安装缓慢:
  • 使用虚拟环境隔离;pip 更换国内镜像源(如清华源)加速。
  • 模型加载失败:
  • 校验模型文件 SHA256;确认放置在正确目录 models/Stable-diffusion/
  • 无法使用 GPU:
  • 检查 nvidia-smi 输出与驱动版本;确认 Docker 运行时启用 --gpus all;必要时添加 --skip-torch-cuda-test 进行排障(不推荐长期使用)。
  • 远程访问失败:
  • 开放服务器防火墙端口(如 7860/tcp),并用服务器 IP:7860 访问。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序