CentOS部署 Stable Diffusion 的实用技巧
一 环境准备与硬件基线
- 系统更新与基础工具:建议先执行sudo yum update -y,并安装Development Tools、git、python3、python3-pip、cmake等基础工具,减少后续编译与依赖问题。
- Python版本:优先使用Python 3.10.6(编译安装更稳),完成后建立软链:
ln -s /usr/local/python3/bin/python3.10 /usr/bin/python3;ln -s /usr/local/python3/bin/pip3.10 /usr/bin/pip3。
- 硬件基线:内存至少8GB(推荐16GB+);NVIDIA 显卡显存至少4GB(推荐6–8GB+);磁盘预留60–100GB+(模型与缓存占用大)。
- 国内下载加速:git 克隆可用镜像加速,例如:git clone https://ghproxy.com/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git;pip 可通过更换国内源提升速度。
二 两种稳定部署路径
1) 安装依赖:yum 安装git、python3、python3-pip、cmake、protobuf、rust等;Python 建议用3.10.6源码编译。
2) 获取脚本:git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git && cd stable-diffusion-webui。
3) 启动安装:./webui.sh(首次会自动安装 torch、xformers 等;无 GPU 或 CUDA 测试不过时,可在启动参数中添加--skip-torch-cuda-test;多卡可用CUDA_VISIBLE_DEVICES=0,1指定)。
4) 访问界面:浏览器打开http://<服务器IP>:7860。
- 方式B Docker + NVIDIA Container Toolkit(便于隔离与迁移)
1) 安装 Docker:配置官方仓库后执行yum install -y docker-ce docker-ce-cli containerd.io,并启动服务。
2) 安装 NVIDIA Container Toolkit(按官方指引添加仓库并安装nvidia-docker2),重启 Docker。
3) 运行容器:docker run -it --rm --gpus all -p 7860:7860 <镜像名>;如内置 Jupyter 可用 jupyter lab --ip 0.0.0.0 --port 54321 --allow-root(端口可按需映射)。
三 性能优化与常见问题处理
- 加速与显存优化:安装xformers可显著提升推理速度;合理设置--medvram/--lowvram降低显存占用;分辨率长宽保持8 的倍数可避免许多模型报错。
- 依赖与版本:优先使用与 CUDA 版本匹配的 PyTorch;WebUI 目录执行pip install -r requirements_versions.txt有助于版本一致性。
- 资源监控:用nvidia-smi观察 GPU 显存与利用率,用htop查看 CPU/内存,必要时限制并发或降分辨率。
- 常见问题速解:
- GPU 未被识别:确认安装了匹配版本的 PyTorch,并在 webui.sh 启动参数中加入--skip-torch-cuda-test临时绕过检测。
- 克隆/下载慢:git 使用ghproxy.com镜像;pip 更换国内源。
- 模型加载失败:核对模型文件路径与完整性(常见为.ckpt或.safetensors),并放置在models/Stable-diffusion目录。
- 权限与端口:确保运行用户对安装目录有读写权限;如远程访问,放行7860端口或按需修改。
四 安全与运维建议
- 访问控制:仅在需要时开放7860端口,生产环境建议置于反向代理(如 Nginx)后并启用鉴权;限制来源 IP。
- 运行隔离:优先使用虚拟环境或Docker隔离依赖;定期备份models、outputs与配置文件。
- 资源与稳定性:长时间任务建议配合nohup或systemd管理进程,设置日志轮转,避免异常退出导致任务中断。