一、准备工作
二、安装基础依赖
打开终端,执行以下命令安装系统依赖:
sudo apt update && sudo apt upgrade -y # 更新系统
sudo apt install -y build-essential git python3 python3-pip python3-venv libopenmpi-dev libhdf5-serial-dev # 安装编译工具、Git、Python及基础库
执行以下命令安装基础依赖:
sudo yum update -y && sudo yum groupinstall -y "Development Tools" # 更新系统并安装开发工具组
sudo yum install -y git python3 python3-pip cmake # 安装Git、Python及CMake
为避免依赖冲突,建议使用虚拟环境隔离项目:
python3 -m venv stable-diffusion-env # 创建虚拟环境
source stable-diffusion-env/bin/activate # 激活虚拟环境(后续操作均在虚拟环境中进行)
三、安装Stable Diffusion核心依赖
在虚拟环境中,执行以下命令安装Python核心依赖(自动安装PyTorch GPU版本及配套库):
pip install --upgrade pip # 升级pip至最新版本
pip install diffusers transformers accelerate safetensors ftfy # 安装Stable Diffusion核心库
上述命令会自动安装适配GPU的PyTorch版本(如torch
、nvidia-cuda-runtime-cu12
等),无需单独配置PyTorch。
四、下载Stable Diffusion模型
选择官方或第三方优化模型(如stable-diffusion-v1-5
、stable-diffusion-xl
),执行以下命令克隆仓库:
git clone https://huggingface.co/stable-diffusion-v1-5 # 以v1-5为例
cd stable-diffusion-v1-5 # 进入模型目录
模型文件(如model.ckpt
或safetensors
格式)通常需从Hugging Face或其他可信来源下载,放置在模型目录下(如models/Stable-diffusion/
)。
五、下载并配置Stable Diffusion WebUI
执行以下命令克隆AUTOMATIC1111
团队的WebUI项目(功能完善,支持文本生成图像):
cd ~ # 返回根目录
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git # 克隆WebUI项目
cd stable-diffusion-webui # 进入项目目录
编辑webui-user.sh
文件(若不存在则创建),添加以下内容指定模型路径:
export MODEL_PATH="/path/to/your/stable-diffusion-v1-5" # 替换为实际模型目录
执行以下命令启动Stable Diffusion WebUI:
bash webui.sh # 前台运行(显示日志)
# 或使用nohup后台运行:
# nohup bash webui.sh > webui.log 2>&1 &
启动完成后,通过浏览器访问http://<服务器IP>:7860
(默认端口7860),即可看到Web界面。
六、使用Stable Diffusion
在Web界面输入框中输入文本描述(如a beautiful sunset over the ocean
),调整参数(如Steps
(推理步数,默认50)、CFG Scale
(提示词引导强度,默认7)),点击Generate
按钮即可生成图像。
生成完成后,点击图像下方的Download
按钮保存至本地。
七、常见问题及解决方法
配置Git代理(如git config --global http.proxy http://127.0.0.1:10809
)或使用国内镜像源(如git clone https://hub.fastgit.org/stable-diffusion-v1-5
)。
更换pip源为国内镜像(如pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple
)。
nvidia-smi
命令查看驱动版本);torch==2.6.0+cu121
);webui-user.sh
中添加--skip-torch-cuda-test
参数跳过CUDA测试(仅用于确认驱动正常时)。手动下载tokenizer文件(如tokenizer.json
),放置在模型目录下的tokenizer
文件夹中。