Linux 上安装与运行 Llama 3 的实用指南
一 安装方式与前置条件
二 方式一 Ollama 快速安装与运行
curl -fsSL https://ollama.com/install.sh | shollama -v 显示版本号即成功。/etc/systemd/system/ollama.service,示例:[Service]
ExecStart=/usr/local/bin/ollama serve
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/opt/ollama/models"
User=ollama
Group=ollama
Restart=always
RestartSec=3
[Install]
WantedBy=multi-user.targetsudo systemctl daemon-reload
sudo systemctl enable --now ollamacurl http://127.0.0.1:11434 返回 “Ollama is running” 表示服务就绪。ollama run llama3(默认 8B)ollama run llama3:70bollama pull llama3:8bcurl http://localhost:11434/api/generate -d '{ "model":"llama3:8b", "prompt":"用一句话介绍 Llama 3", "stream":false }'docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data --name open-webui --restart always \
ghcr.io/open-webui/open-webui:main浏览器访问 http://localhost:3000,在模型列表选择 Llama 3 即可使用。
三 方式二 源码方式 Meta 官方仓库
conda create -n llama3 python=3.8
conda activate llama3git clone https://github.com/meta-llama/llama3.git
cd llama3
pip install -e .chat.py)进行推理;注意遵守 Llama 3 Community License Agreement。四 常见问题与优化建议
-v /opt/ollama/models:/app/backend/models)。sudo systemctl restart ollama、sudo journalctl -u ollama -f 查看日志。