Linux环境配置 Llama 3 实操指南
一 环境准备与安装
curl -fsSL https://ollama.com/install.sh | shollama -v 显示版本号;如提示未检测到NVIDIA/AMD GPU,将以CPU-only模式运行(不影响功能,但速度较慢)二 模型拉取与本地运行
ollama run llama3(首次会自动下载并进入交互)ollama pull llama3:仅拉取模型ollama list:查看已安装模型ollama rm <模型名>:删除模型ollama run llama3:70b(需更高显存与更长下载时间)三 远程访问与 API 调用
sudo vim /etc/systemd/system/ollama.service[Service] 下添加或修改:Environment="OLLAMA_HOST=0.0.0.0"(允许外部访问)Environment="OLLAMA_ORIGINS=*"(允许跨域,按需开启)Environment="OLLAMA_MODELS=/your/custom/models/path"(自定义模型存放路径)sudo systemctl daemon-reloadsudo systemctl restart ollamacurl http://127.0.0.1:11434,应返回 “Ollama is running”curl http://<服务器IP>:11434,返回同上即正常curl http://127.0.0.1:11434/api/generate -d '{
"model": "llama3",
"prompt": "Describe the scene of sunny weather after raining",
"stream": false
}'curl http://127.0.0.1:11434/api/chat -d '{
"model": "llama3",
"messages": [
{"role": "system", "content": "你是一名资深翻译家,请将以下内容翻译成中文"},
{"role": "user", "content": "What a lovely scenario!\n\nAs you step out into the bright, open air."}
],
"stream": false
}'四 可视化界面 Open WebUI(Docker)
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://<服务器IP>:11434 \
-v open-webui:/app/backend/data \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:maindocker run -d -p 3000:8080 \
--add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:mainghcr.nju.edu.cn/open-webui/open-webui:main)五 常见问题与优化
netstat -tulpn | grep 11434sudo kill 后 ollama serve 重启服务ollama run llama3;或先 ollama pull llama3 再运行load_in_4bit=True, device_map="auto")