Linux环境运行 Llama 3 实操指南
一 环境准备与安装
curl -fsSL https://ollama.com/install.sh | sh--gpus=all 的容器运行 Ollama。二 快速运行 Llama 3
ollama run llama3(首次会自动拉取模型,默认 8B)ollama run llama3:70b(需更高显存/内存)ollama pull llama3、ollama list、ollama rm 、ollama --versionollama serve。三 远程访问与 API 调用
sudo systemctl edit ollama 或编辑文件 /etc/systemd/system/ollama.service[Service] 下添加:Environment="OLLAMA_HOST=0.0.0.0:11434"(监听所有地址)Environment="OLLAMA_ORIGINS=*"(允许跨域,按需开启)sudo systemctl daemon-reload && sudo systemctl restart ollamacurl http://服务器IP:11434,返回 “Ollama is running” 即正常。curl http://localhost:11434/api/generate -d '{ "model":"llama3", "prompt":"请用中文介绍Llama 3", "stream":false }'四 使用 Docker 运行
docker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamadocker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamadocker exec -it ollama ollama run llama3五 部署 Open WebUI 可视化界面
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main六 常见问题与优化
netstat -tulpn | grep 11434 或 lsof -i :11434,必要时结束占用进程后重启服务。Environment="OLLAMA_MODELS=/your/path",并确保目录权限与磁盘空间充足。