Linux环境下 Llama 3 安装与运行指南
一 环境准备与硬件建议
二 方式一 Ollama 一键安装与系统服务
curl -fsSL https://ollama.com/install.sh | sh安装完成后执行 ollama -v 验证版本。
1) 下载并解压到自定义目录(示例:/opt/ollama)
curl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama.tgz
sudo mkdir -p /opt/ollama
sudo tar -xzf ollama.tgz -C /opt/ollama2) 创建服务文件 /etc/systemd/system/ollama.service
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/opt/ollama/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
# 可选:自定义模型目录
Environment="OLLAMA_MODELS=/opt/ollama/models"
# 可选:允许远程访问
# Environment="OLLAMA_HOST=0.0.0.0"
# 可选:跨域
# Environment="OLLAMA_ORIGINS=*"
[Install]
WantedBy=multi-user.target3) 启动与开机自启
sudo systemctl daemon-reload
sudo systemctl enable --now ollama4) 验证服务
systemctl status ollama
ollama -v说明:若未创建专用用户,可将 User/Group 调整为当前用户(如 ubuntu),并确保对相关目录有读写权限。
三 方式二 Docker 部署 Ollama 与 Open WebUI
docker run -d \
-v /opt/ai/ollama:/root/.ollama \
-p 11434:11434 \
--name ollama \
ollama/ollamadocker run --gpus all -d \
-v /opt/ai/ollama:/root/.ollama \
-p 11434:11434 \
--name ollama \
ollama/ollamadocker run -d \
-p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui \
--restart always \
ghcr.io/open-webui/open-webui:maindocker exec -it ollama ollama run llama3-v /opt/ollama/models:/app/backend/models ...。四 下载运行 Llama 3 与常用命令
ollama run llama3ollama run llama3:70bollama pull llama3ollama listollama rm llama3ollama serve # 启动服务
ollama create # 从模型文件创建模型
ollama show # 显示模型信息
ollama pull # 拉取模型
ollama push # 推送模型
ollama cp # 复制模型
ollama rm # 删除模型
ollama help # 帮助五 常见问题与优化