Linux 安装 Llama 3 的简明步骤
一 准备与环境
二 方式一 使用 Ollama 快速安装与运行
curl -fsSL https://ollama.com/install.sh | shollama serve/etc/systemd/system/ollama.service,示例:[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
# 可选:远程访问
Environment="OLLAMA_HOST=0.0.0.0"
# 可选:跨域
Environment="OLLAMA_ORIGINS=*"
# 可选:自定义模型存放路径
Environment="OLLAMA_MODELS=/home/ollama/.ollama/models"
[Install]
WantedBy=default.target然后执行:
sudo systemctl daemon-reload
sudo systemctl enable --now ollamaollama run llama3
# 仅下载
ollama pull llama3
# 查看已安装模型
ollama list
# 删除模型
ollama rm llama3ollama serve|create|show|run|pull|push|list|cp|rm|help。三 方式二 使用 Docker 运行(含 GPU 与 Web UI)
docker run -d \
-v ollama:/root/.ollama \
-p 11434:11434 \
--name ollama \
ollama/ollamadocker run -d \
--gpus=all \
-v ollama:/root/.ollama \
-p 11434:11434 \
--name ollama \
ollama/ollamadocker exec -it ollama ollama run llama3docker run -d \
-p 8080:8080 \
--add-host=host.docker.internal:host-gateway \
--name ollama-webui \
--restart always \
ghcr.io/ollama-webui/ollama-webui:main浏览器访问 http://localhost:8080。
四 验证与常用 API 调用
curl http://127.0.0.1:11434curl http://127.0.0.1:11434/api/generate -d '{
"model": "llama3",
"prompt": "Describe the scene of sunny weather after raining",
"stream": false
}'curl http://127.0.0.1:11434/api/chat -d '{
"model": "llama3",
"messages": [
{"role": "system", "content": "你是一名资深翻译家,请将接下来的内容翻译成中文"},
{"role": "user", "content": "What a lovely scenario!\n\nAs you step out into the bright, open air."}
],
"stream": false
}'五 常见问题与优化
ollama run llama3;网络不稳可更换网络或在稳定时段重试。-p 参数(如将 11434 改为其他端口)。