Linux系统支持 Llama 3 运行的完整方案
一 环境准备与硬件建议
二 快速部署 Ollama 并运行 Llama 3
curl -fsSL https://ollama.com/install.sh | shollama run llama3curl http://127.0.0.1:11434
# 若返回 "Ollama is running" 表示服务正常ollama --version # 查看版本
ollama ps # 查看已加载模型与资源占用
ollama pull llama3:70b # 拉取指定版本(如 70B)三 作为服务运行与远程访问
编辑服务文件 /etc/systemd/system/ollama.service,在 [Service] 下添加或修改:
Environment="OLLAMA_HOST=0.0.0.0:11434"sudo systemctl daemon-reload
sudo systemctl restart ollama
sudo systemctl enable ollama # 可选:开机自启sudo firewall-cmd --add-port=11434/tcp --permanent
sudo firewall-cmd --reloadcurl http://服务器IP:11434四 部署 Open WebUI 可视化界面
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://服务器IP:11434 \
-v open-webui:/app/backend/data \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:maindocker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:main五 常见问题与优化
sudo lsof -i :11434
kill
ollama serve journalctl -u ollama -n 50 --no-pager