在Linux上部署Stable Diffusion模型,可以按照以下步骤进行:
首先,确保你的Linux系统已经安装了Python和pip。推荐使用Python 3.8或更高版本。
sudo apt update
sudo apt install python3 python3-pipStable Diffusion依赖于多个Python库,可以使用pip一次性安装这些依赖。
pip3 install torch torchvision torchaudio
pip3 install transformers
pip3 install opencv-python-headless
pip3 install pillow
pip3 install tqdm你可以从Hugging Face的模型库中下载预训练的Stable Diffusion模型。
git clone https://huggingface.co/stabilityai/stable-diffusion-v1-5
cd stable-diffusion-v1-5进入模型目录并安装模型。
pip3 install -r requirements.txt使用以下命令启动Stable Diffusion模型。
python3 webui.py这将启动一个Web界面,你可以在浏览器中访问http://localhost:7860来使用Stable Diffusion模型。
如果你有NVIDIA GPU并且希望加速模型推理,可以安装CUDA和cuDNN。
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2004/x86_64/cuda-ubuntu2004.pin
sudo mv cuda-ubuntu2004.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/11.8.0/local_installers/cuda-repo-ubuntu2004-11-8-local_11.8.0-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2004-11-8-local_11.8.0-1_amd64.deb
sudo apt-key add /var/cuda-repo-ubuntu2004-11-8-local/7fa2af80.pub
sudo apt update
sudo apt install cudaecho 'export PATH=/usr/local/cuda-11.8/bin${PATH:+:${PATH}}' >> ~/.bashrc
echo 'export LD_LIBRARY_PATH=/usr/local/cuda-11.8/lib64${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}' >> ~/.bashrc
source ~/.bashrctar -xzvf cudnn-11.8-linux-x64-v8.6.0.26.tgz
sudo cp cuda/include/cudnn*.h /usr/local/cuda/include
sudo cp cuda/lib64/libcudnn* /usr/local/cuda/lib64
sudo chmod a+r /usr/local/cuda/include/cudnn*.h /usr/local/cuda/lib64/libcudnn*确保CUDA和cuDNN正确安装并配置。
nvidia-smi你应该能看到GPU的使用情况。
在启动Web界面时,可以通过命令行参数指定使用GPU。
python3 webui.py --cuda这样,Stable Diffusion模型将会使用GPU进行推理,提高处理速度。
通过以上步骤,你应该能够在Linux上成功部署Stable Diffusion模型。如果有任何问题,请参考官方文档或社区支持。