以下是Linux上安装Llama3的常见误区及注意事项:
- 忽略依赖版本兼容性
- 需确保Python≥3.8、PyTorch≥2.1.0+cu118、transformers≥4.39.0,旧版本可能导致模型加载失败。
- 错误做法:直接使用系统默认的Python或未指定版本的库安装命令。
- 未正确配置CUDA环境
- 若使用GPU加速,需安装CUDA Toolkit(≥11.0)并验证GPU可见性(
nvidia-smi),但部分教程未明确提及CUDA与系统的适配性。 - 错误做法:在无NVIDIA GPU的机器上尝试运行GPU版本模型,或未设置
--gpus=all参数。
- 模型下载与路径错误
- 从非官方渠道下载模型可能导致文件损坏,或未正确指定模型路径导致加载失败。
- 错误做法:直接克隆非官方仓库(如未验证的第三方镜像),未通过
modelscope等可信平台获取模型。
- 环境变量配置不当
- 未设置
OLLAMA_ORIGINS、OLLAMA_KEEP_ALIVE等环境变量,可能导致跨域问题或模型加载异常。 - 错误做法:忽略系统环境变量的持久化配置,仅临时设置参数。
- 权限与资源管理问题
- 未以普通用户身份运行Ollama,或未正确配置模型存储路径的读写权限,导致安装失败。
- 错误做法:直接使用
sudo运行Ollama,未创建专用虚拟环境隔离依赖。
- 忽视硬件资源限制
- 8B版本需至少8GB显存,70B版本需更高配置,但部分教程未明确标注硬件要求。
- 错误做法:在低配置机器(如无GPU或内存<16GB)上强行安装,导致运行崩溃。
参考来源: