如何在Linux上部署Llama3模型

AI技术
小华
2025-05-21

在Linux上部署Llama3模型可以通过使用Ollama这个简单易用的本地大语言模型运行框架来实现。以下是详细的步骤:

准备工作

  1. 安装Docker

确保你的Linux系统上已经安装了Docker。如果没有安装,可以参考Docker官方文档进行安装。

  1. 安装NVIDIA Container Toolkit(如果使用GPU):

如果你打算使用GPU来加速模型运行,需要安装NVIDIA Container Toolkit。详细教程可以参考NVIDIA Container Toolkit安装指南

部署步骤

使用CPU方式部署Ollama

  1. 拉取Docker镜像
docker pull ollama/ollama
  1. 部署Ollama容器
docker run -d -v $PWD/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

参数说明:

  • --name ollama:表示创建的容器名为ollama。
  • -p 11434:11434:表示你的服务器11434端口,映射到容器内的11434端口。
  • -v $PWD/ollama:/root/.ollama:将服务器上当前所在路径下的ollama目录挂载映射到容器内的/root/.ollama目录。
  • ollama/ollama:表示你的镜像名。
  1. 进入Ollama容器内部
docker exec -it ollama /bin/bash
  1. 运行Llama3模型服务
ollama run llama3

模型文件会自动下载,等待下载完成即可。

使用GPU方式部署Ollama

  1. 安装NVIDIA Container Toolkit(如果尚未安装)。
  2. 拉取Docker镜像
docker pull ollama/ollama
  1. 部署Ollama容器
docker run -d --gpus=all -v $PWD/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama

参数说明:

  • --gpus=all:挂载全部的GPU。
  • 其他参数与CPU方式相同。
  1. 进入Ollama容器内部
docker exec -it ollama /bin/bash
  1. 运行Llama3模型服务
ollama run llama3

使用Open-WebUI管理模型

  1. 拉取Open-WebUI镜像
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

如果镜像拉取速度慢,可以使用国内的镜像源:

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always registry.cn-hangzhou.aliyuncs.com/pzl_images/open-webui:main
  1. 访问Open-WebUI

部署完成后,访问http://服务器IP:8080注册管理员账号,并使用管理员账号登录。
通过以上步骤,你就可以在Linux上成功部署Llama3模型,并通过Ollama和Open-WebUI进行模型管理和使用。

亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序