在Linux上部署Llama3模型可以通过使用Ollama这个简单易用的本地大语言模型运行框架来实现。以下是详细的步骤:
确保你的Linux系统上已经安装了Docker。如果没有安装,可以参考Docker官方文档进行安装。
如果你打算使用GPU来加速模型运行,需要安装NVIDIA Container Toolkit。详细教程可以参考NVIDIA Container Toolkit安装指南。
docker pull ollama/ollama
docker run -d -v $PWD/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
参数说明:
--name ollama
:表示创建的容器名为ollama。-p 11434:11434
:表示你的服务器11434端口,映射到容器内的11434端口。-v $PWD/ollama:/root/.ollama
:将服务器上当前所在路径下的ollama目录挂载映射到容器内的/root/.ollama
目录。ollama/ollama
:表示你的镜像名。docker exec -it ollama /bin/bash
ollama run llama3
模型文件会自动下载,等待下载完成即可。
docker pull ollama/ollama
docker run -d --gpus=all -v $PWD/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama
参数说明:
--gpus=all
:挂载全部的GPU。docker exec -it ollama /bin/bash
ollama run llama3
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
如果镜像拉取速度慢,可以使用国内的镜像源:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always registry.cn-hangzhou.aliyuncs.com/pzl_images/open-webui:main
部署完成后,访问http://服务器IP:8080
注册管理员账号,并使用管理员账号登录。
通过以上步骤,你就可以在Linux上成功部署Llama3模型,并通过Ollama和Open-WebUI进行模型管理和使用。