Linux下 Llama 3 安装指南
一 环境准备与硬件建议
二 方式一 Ollama 一键安装与运行(推荐)
curl -fsSL https://ollama.com/install.sh | shollama --versionollama run llama3(首次会自动下载模型,默认 8B)ollama run llama3:70b(需更高显存/内存)ollama pull llama3、ollama list、ollama rm 、ollama servecurl -L https://ollama.com/download/ollama-linux-amd64.tgz -o ollama.tgzsudo mkdir -p /opt/ollama && sudo tar -xzf ollama.tgz -C /opt/ollama/opt/ollama/bin/ollama 使用或配置 systemd 服务指定路径三 方式二 源码方式 Meta 官方仓库(进阶)
conda create -n llama3 python=3.8 && conda activate llama3git clone https://github.com/meta-llama/llama3.gitpip install -e .download.sh,按提示粘贴邮件中的链接选择 8B/70B 等版本chat.py)进行对话推理四 服务化与远程访问配置
/etc/systemd/system/ollama.service[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
Environment="OLLAMA_MODELS=/home/ollama/.ollama/models"
[Install]
WantedBy=default.targetsudo systemctl daemon-reloadsudo systemctl enable --now ollamacurl http://127.0.0.1:11434(应返回 Ollama is running)curl http://服务器IP:11434netstat -tulpn | grep 11434 或 lsof -i :11434OLLAMA_ORIGINS=*,按需设置来源白名单五 可视化界面 Open WebUI 与常见问题
docker run -d -p 3000:8080 \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
-v open-webui:/app/backend/data \
--name open-webui --restart always \
ghcr.io/open-webui/open-webui:mainhttp://host.docker.internal:11434 或服务器地址netstat -tulpn | grep 11434 查进程并释放端口,或调整服务端口