在Linux上更新Llama3模型前,需确保已通过Ollama(本地大模型运行框架)安装过Llama3。若未安装,可通过以下命令快速安装Ollama:
curl -fsSL https://ollama.com/install.sh | sh
安装完成后,Ollama会自动注册为系统服务并启动,默认监听localhost:11434
端口。
通过ollama list
命令列出本地所有模型,确认当前安装的Llama3版本:
ollama list
输出示例:
NAME ID SIZE MODIFIED
llama3:latest e5a7b3a1c7a2 4.7GB 2 days ago
其中llama3:latest
表示当前安装的最新版本(默认可能是8B或70B参数量,具体以实际为准)。
使用ollama pull
命令并指定模型名称(无需版本号),Ollama会自动下载远程仓库的最新版本:
ollama pull llama3
执行后,Ollama会显示下载进度(如pulling manifest...
、pulling model files...
),完成后最新版本会覆盖本地llama3:latest
。
若需更新至特定版本(如8b-instruct-q4_1
),可通过模型名:标签
格式指定:
ollama pull llama3:8b-instruct-q4_1
此方式可避免自动升级到不稳定版本,适合需要固定模型配置的场景。
更新完成后,通过ollama show
命令查看模型详情,确认版本信息:
ollama show llama3:latest
输出示例:
Model: llama3
Version: 1.2.0 # 版本号(以实际为准)
Size: 4.7GB
Digest: sha256:c3d9f1a8b0e6...
Parameters: 70 billion # 参数量(如8B/70B)
Family: Llama3
确保Version
字段为最新版本即可。
若需释放磁盘空间,可通过ollama rm
命令删除旧版本模型(如llama3:8b
):
ollama rm llama3:8b
删除后,模型文件将从本地存储中移除,再次使用时需重新拉取。
ollama pull
命令。ollama pull llama3:旧版本标签
重新下载。~/.ollama/models
目录,可通过OLLAMA_MODELS
环境变量修改。