Linux安装Stable Diffusion的可行方案
一 方案总览与准备
sudo apt update && sudo apt install -y git python3.10 python3-venv python3-dev build-essentialnvidia-smi(查看驱动/CUDA)、nvcc --version(查看 CUDA 编译器)。二 原生安装步骤(Ubuntu/Debian 通用)
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.gitcd stable-diffusion-webuipython3 -m venv venvsource venv/bin/activatepip install -U pippip install -r requirements.txtexport COMMANDLINE_ARGS="--xformers"(需 NVIDIA 且 PyTorch 支持)./webui.shsudo ufw allow 7860/tcp)并用服务器 IP:7860 访问。三 Docker 安装步骤(更干净、易迁移)
sudo apt update && sudo apt install -y docker.iosudo systemctl restart dockermkdir -p ~/stable-diffusion/{models,outputs}-p 7860:7860 \
-v ~/stable-diffusion/models:/app/models \
-v ~/stable-diffusion/outputs:/app/outputs \
--name sd-webui \
ghcr.io/automatic1111-webui/stable-diffusion-webui:latest`
-p 与 -v 参数。四 模型放置与常用启动参数
models/Stable-diffusion/export COMMANDLINE_ARGS="..." 设置):--xformers:显著降低显存占用并提升速度(NVIDIA 推荐)--medvram / --lowvram:显存优化,适合 6GB–8GB 显卡--port 7890:更换端口--share:生成临时公网访问地址(有效期约 72 小时)export COMMANDLINE_ARGS="--xformers --medvram --port 7890" 后启动 ./webui.sh。五 常见问题与排查
--medvram 或降低分辨率;确保使用支持 CUDA 的 PyTorch 版本。pip 更换国内镜像源(如清华源)加速。nvidia-smi 输出与驱动版本;确认 Docker 运行时启用 --gpus all;必要时添加 --skip-torch-cuda-test 进行排障(不推荐长期使用)。