Linux上安装与运行 Llama 3 的实用指南
一 环境准备与硬件建议
二 安装 Ollama 并拉取 Llama 3
curl -fsSL https://ollama.com/install.sh | shollama --versionollama run llama3(默认 8B 参数)ollama run llama3:70bollama pull llama3 或 ollama pull llama3:70bollama listollama serve|create|show|run|pull|push|list|cp|rm|help(用法与 Docker 风格相似)。三 作为服务运行与远程访问配置
sudo vim /etc/systemd/system/ollama.service[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/home/ollama/.ollama/models"
[Install]
WantedBy=multi-user.targetsudo systemctl daemon-reloadsudo systemctl enable ollama && sudo systemctl start ollamacurl http://127.0.0.1:11434(应返回 “Ollama is running”)curl http://服务器IP:11434netstat -tulpn | grep 11434四 可选 Web 可视化界面 Open WebUI
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainhttp://localhost:3000,在界面中选择 Llama 3 即可使用。docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://你的域名或IP -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main-v /opt/ollama/models:/app/backend/models(具体以 Open WebUI 版本说明为准)。五 常见问题与优化建议
ollama pull,再迁移至目标机器;也可将模型目录通过 OLLAMA_MODELS 或 volume 挂载到高速盘。-p 5000:8080),并确保防火墙放行对应端口。systemctl enable/start ollama。