Linux环境部署 Llama 3 实操指南
一 环境准备与硬件建议
二 使用 Ollama 快速部署
curl -fsSL https://ollama.com/install.sh | shollama run llama3(默认 8B)ollama run llama3:70b(需更高显存/内存)ollama pull llama3ollama listollama rm llama3curl http://127.0.0.1:11434,返回 “Ollama is running” 即正常。三 配置远程访问与自启动
sudo vim /etc/systemd/system/ollama.service[Service] 下添加:Environment="OLLAMA_HOST=0.0.0.0:11434"(允许外网访问)Environment="OLLAMA_MODELS=/opt/ollama/models"(自定义模型目录)sudo systemctl daemon-reloadsudo systemctl enable --now ollamasudo ss -tulpn | grep 11434sudo kill 后 sudo systemctl restart ollamasudo ufw allow 11434/tcpsudo firewall-cmd --add-port=11434/tcp --permanent && sudo firewall-cmd --reloadcurl http://<服务器IP>:11434,应返回 “Ollama is running”。四 部署 Open WebUI 可视化界面
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://<服务器IP>:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:maindocker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:mainhttp://localhost:3000 或 http://<服务器IP>:3000http://host.docker.internal:11434(客户端)或 http://<服务器IP>:11434(服务端)五 API 调用与常见问题
curl http://127.0.0.1:11434/api/generate -d '{ "model": "llama3", "prompt": "用一句话介绍 Llama 3", "stream": false }'curl http://127.0.0.1:11434/api/chat -d '{ "model": "llama3", "messages": [{"role":"system","content":"你是助手"},{"role":"user","content":"你好"}], "stream": false }'11434 是否被占用,必要时 kill 进程或调整端口映射。