Linux 上安装 Llama 3 的高效做法与实用技巧
一 安装路径选型
curl -fsSL https://ollama.com/install.sh | sh。适合新手与快速试用。二 服务化与远程访问
sudo systemctl daemon-reload && sudo systemctl enable --now ollama。Environment="OLLAMA_HOST=0.0.0.0:11434";如需跨域,可加 Environment="OLLAMA_ORIGINS=*",然后 sudo systemctl restart ollama。curl http://127.0.0.1:11434,应返回 Ollama is running。curl http://服务器IP:11434,若不通,检查防火墙/云安全组是否放行 11434/tcp。三 模型拉取与运行
ollama run llama3(首次会自动拉取并进入交互),或先 ollama pull llama3 再运行。ollama run llama3:70b(显存建议 ≥48GB 级别);显存不足时先用 8B 版本。ollama list、ollama rm 、ollama show ,与 Docker 风格一致,便于日常运维。四 GPU 与显存优化
nvidia-smi 正常。max_batch_size、使用张量并行等)。nvidia-smi 确认驱动与显存状态;若频繁 OOM,优先换小模型或改用 CPU 模式。五 Web 界面与 API 集成
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://服务器IP:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:maindocker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainhttp://host.docker.internal:11434(客户端)或 http://服务器IP:11434(服务端)。curl http://127.0.0.1:11434/api/generate -d '{"model":"llama3","prompt":"Hello, Llama 3!","stream":false}'curl http://127.0.0.1:11434/api/chat -d '{ "model":"llama3", "messages":[{"role":"user","content":"你好"}] }'。netstat -tulpn | grep 11434 查进程并释放端口。ollama run llama3;必要时更换网络或在稳定时段执行。