Linux下Llama3的安装教程

AI技术
小华
2025-05-21

在Linux下安装Llama3可以分为几个步骤,以下是详细的教程:

准备工作

  1. 操作系统:建议使用Deepin Linux,这是一款基于Debian的Linux发行版。
  2. 硬件要求
  • 对于8B模型,通常需要16GB内存。
  • 对于70B模型,则需要至少64GB内存和强大的CPU,如果有GPU会更好。

安装Ollama

  1. 下载Ollama安装包

打开终端,粘贴以下命令并回车:

curl -fsSL https://ollama.com/install.sh | sh

这将自动下载并安装Ollama。

  1. 登录Ollama

安装完成后,输入用户名和密码登录Ollama。

  1. 下载Llama3模型

在Ollama的命令行界面中,输入以下命令下载8B模型:

ollama run llama3

或者指定下载8B模型:

ollama run llama3:8b

安装成功会有相应的提示。

使用OpenWebUI进行交互

  1. 安装Docker

由于Deepin Linux需要配置安装Docker CE及其相关工具,执行以下命令:

sudo apt-get install -y apt-transport-https ca-certificates curl python-software-properties software-properties-common

添加Docker CE的官方GPG密钥:

curl -fsSL https://mirrors.ustc.edu.cn/docker-ce/linux/debian/gpg | sudo apt-key add -

根据Deepin基于的Debian版本添加官方仓库,例如Deepin基于Debian 10.5(代号为buster),则添加以下仓库:

deb [arch=amd64] https://mirrors.ustc.edu.cn/docker-ce/linux/debian buster stable

安装Docker:

sudo apt-get update
sudo apt-get install -y docker-ce

启动Docker服务:

sudo systemctl start docker

检查Docker安装是否成功:

docker --version
  1. 部署OpenWebUI

使用Docker运行OpenWebUI:

docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

或者使用国内下载源:

docker run -d -p 3000:8080 --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

查看机器的IP地址以访问OpenWebUI。

整合dify Web界面(可选)

  1. 修改系统环境变量

编辑环境变量文件,设置Ollama服务器的监听地址和端口号:

export OLLAMA_HOST=IP_Address_for_the_ollama_server
export OLLAMA_NOHISTORY=true

默认端口号为11434。
通过以上步骤,您可以在Linux系统下成功安装并运行Llama3模型。希望这个教程对您有所帮助!如果有任何问题,请随时联系相关社区或支持团队。

亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序