最简流程 Linux 一键部署 Llama 3
一 极速一条命令
curl -fsSL https://ollama.com/install.sh | sh
ollama run llama3二 远程访问与 API 调用
1) 编辑服务文件
sudo systemctl edit ollama在打开的编辑器中添加:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"2) 重启服务
sudo systemctl daemon-reload
sudo systemctl restart ollamacurl http://127.0.0.1:11434/api/generate -d '{"model":"llama3","prompt":"用一句话介绍Linux","stream":false}'若从外部访问,将 127.0.0.1 替换为服务器 IP。
三 GPU 加速与 Docker 部署
docker run -d --gpus=all \
-v $PWD/ollama:/root/.ollama \
-p 11434:11434 --name ollama ollama/ollama
docker exec -it ollama ollama run llama3docker run -d \
-v $PWD/ollama:/root/.ollama \
-p 11434:11434 --name ollama ollama/ollama
docker exec -it ollama ollama run llama3四 可视化界面 Open WebUI
docker run -d -p 3000:8080 \
-v open-webui:/app/backend/data \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:main五 常见问题与快速排查
sudo lsof -i :11434
kill && ollama serve ollama run llama3 会自动续传;也可先 ollama pull llama3 再运行。