Linux 安装 Llama 3 的简明步骤
一 安装 Ollama
curl -fsSL https://ollama.com/install.sh | sh安装完成后会自动部署 Ollama 服务,可直接使用命令行工具 ollama。如需手动启动或排查,可执行 ollama serve。
二 拉取并运行 Llama 3
ollama run llama3ollama run llama3:8b # 约 8B 参数,适合普通电脑
ollama run llama3:70b # 约 70B 参数,需更强算力ollama pull llama3ollama listollama serve|create|show|run|pull|push|list|cp|rm|help。三 作为服务运行与远程访问
sudo tee /etc/systemd/system/ollama.service >/dev/null <<'EOF'
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
# 允许远程访问
Environment="OLLAMA_HOST=0.0.0.0"
# 允许跨域(按需开启)
Environment="OLLAMA_ORIGINS=*"
# 自定义模型存放路径(可选)
Environment="OLLAMA_MODELS=/home/ollama/.ollama/models"
[Install]
WantedBy=default.target
EOF
sudo systemctl daemon-reload
sudo systemctl enable --now ollama四 命令行与 API 快速测试
ollama run llama3 "用一句话介绍 Llama 3"curl http://localhost:11434/api/generate -d '{
"model": "llama3",
"prompt": "Translate to Chinese: Meta Llama 3 is a powerful open LLM.",
"stream": false
}'curl http://localhost:11434/api/chat -d '{
"model": "llama3",
"messages": [
{"role": "system", "content": "你是一名专业翻译。"},
{"role": "user", "content": "Hello, world!"}
],
"stream": false
}'OLLAMA_HOST=0.0.0.0。五 可视化界面与常见问题
git clone https://github.com/ollama-webui/ollama-webui-lite.git
cd ollama-webui-lite
npm install
npm run dev
# 浏览器访问控制台提示的地址(默认 3000 端口)ollama run llama3 或更换网络环境。