在 Linux 上更新 Llama 3 的可行路径
更新 Ollama 本体
curl -fsSL https://ollama.com/install.sh | shcurl -fsSL https://ollama.com/install.sh | OLLAMA_VERSION=0.1.32 shsudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollamasudo chmod +x /usr/bin/ollamasudo systemctl restart ollamasudo systemctl status ollama、journalctl -e -u ollama更新 Llama 3 模型
ollama pull llama3(默认 8B),或指定规模:ollama pull llama3:70bollama run llama3ollama list;如需回退/清理旧版,可先 ollama rm <模型名> 再拉取新版本。ollama run wangshenzhi/llama3-8b-chinese-chat-ollama-q8(会自动拉取最新 manifest 与权重)。git lfs pull 拉取最新权重文件。CUDA_VISIBLE_DEVICES=0,1 vllm serve --dtype bfloat16 ... (按需调整并行与显存参数)。ollama pull llama3,或重启容器以加载新权重。验证与回退建议
ollama --versionjournalctl -e -u ollama(定位拉取/加载是否成功)。ollama list(确认标签与日期/摘要)ollama rm <模型名>,再 ollama pull <模型名>:<标签> 指定旧版标签或摘要。常见问题与处理
git lfs pull)。--tensor_parallel_size、--gpu_memory_utilization)。