在 Linux 上运行 Llama 3 的实用步骤
一 环境准备与硬件建议
二 安装与启动 Ollama
curl -fsSL https://ollama.com/install.sh | sh
ollama serveollama --versioncurl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama.tgz
sudo mkdir -p /opt/ollama
sudo tar -xzf ollama.tgz -C /opt/ollama[Service]
ExecStart=/opt/ollama/bin/ollama serve
Environment="OLLAMA_MODELS=/opt/ollama/models"
[Install]
WantedBy=multi-user.targetsudo systemctl daemon-reload
sudo systemctl enable ollama
sudo systemctl start ollamadocker run -d -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamadocker run -d --gpus=all -v ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollamadocker exec -it ollama ollama run llama3以上步骤完成后,Ollama 默认会在 http://127.0.0.1:11434 提供 API 服务。
三 运行 Llama 3 模型
ollama run llama3ollama run llama3:70bollama pull llama3ollama list # 查看已安装模型
ollama rm llama3 # 删除模型首次运行会自动下载模型,网络状况不同耗时不同。
四 远程访问与 API 调用
sudo systemctl edit ollama
# 在打开的编辑器中添加:
[Service]
Environment="OLLAMA_HOST=0.0.0.0:11434"sudo systemctl daemon-reload
sudo systemctl restart ollamacurl http://服务器IP:11434
# 或
curl http://服务器IP:11434/api/generate -d '{ "model":"llama3", "prompt":"用中文介绍你自己", "stream":false }'curl http://localhost:11434/api/generate -d '{ "model":"llama3", "prompt":"Translate to Chinese: Meta Llama 3", "stream":false }'curl http://localhost:11434/api/chat -d '{ "model":"llama3", "messages":[ {"role":"system","content":"你是一名翻译家。"},{"role":"user","content":"Hello, world!"} ], "stream":false }'如需从外部访问,请确保安全组/防火墙已放行 11434 端口。
五 可视化界面 Open WebUI(可选)
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:maindocker run -d -p 3000:8080 \
-v /opt/ollama/models:/app/backend/models \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:mainOpen WebUI 提供类 ChatGPT 的网页界面,支持多模型、文件上传、对话管理等。