Windows 安装 DeepSeek‑R1 报错排查与修复
一 标准化安装与快速自检
- 安装 Ollama:前往官网下载安装包(Windows 版),安装后用命令行执行:
- 查看版本:ollama -v
- 首次拉取并运行模型(按硬件选择,例如:deepseek-r1:1.5b、deepseek-r1:8b):ollama run deepseek-r1:8b
- 若命令卡住或失败,优先检查网络与权限(必要时右键“以管理员身份运行”命令行)。以上步骤适用于零基础本地部署,且 1.5B/8B 对硬件更友好。
二 常见报错与对应修复
- 端口被占用(常见提示:bind: Only one usage of each socket address)
- 结束占用进程后重启服务,或改用其他端口:
- 结束进程:在任务管理器结束所有 ollama 相关进程
- 换端口启动:在命令行执行:ollama serve --port 11451
- 重新拉取运行:ollama run deepseek-r1:8b
- 服务未启动或连接被拒绝(常见提示:Could not connect to Ollama app, is it running?)
- 先启动服务:ollama serve
- 再开新命令行窗口执行:ollama run deepseek-r1:8b
- 下载慢或中断
- 设置镜像源(命令行临时导出):set OLLAMA_HOST=mirror.ollama.ai
- 重新执行:ollama run deepseek-r1:8b
- 权限不足(Access is denied)
- 右键以管理员身份运行命令行或安装程序,再次执行命令
- 模型拉取/读取异常(如 Post http://127.0.0.1:11434/api/show 失败)
- 重启 Ollama 服务(结束进程后执行 ollama serve),或更换端口后重试
- 罕见系统文件错误(如 Windows 出现 “fatal: open /dev/null …”)
- 需替换系统文件 C:WindowsSystem32driversnull.sys(高风险,建议先创建还原点,或重装系统)
三 环境与路径优化
- 更改模型存放目录,避免 C 盘占满
- 新建系统环境变量:OLLAMA_MODELS
- 设置路径(示例):G:ollamamodels
- 重新启动命令行后再拉取模型
- 使用可视化客户端连接本地模型
- Chatbox:模型提供方选 Ollama API,URL 填 http://localhost:11434,模型选 deepseek-r1:8b
- Cherry Studio:在设置中指定本地模型路径,配置 max_length / temperature / top_p 等参数
- 远程或局域网访问(可选)
- 设置环境变量:OLLAMA_HOST=0.0.0.0、OLLAMA_ORIGINS=*
- 客户端将 API 地址改为服务器 IP:11434(注意防火墙放行)
四 硬件与版本选择建议
- 硬件与模型匹配
- 1.5B:适合入门与低配设备(CPU 也可运行,速度较慢)
- 8B:适合大多数用户(建议内存≥16GB,有独显更佳)
- 32B/67B:对资源要求高,需高端 GPU(如 RTX 3090/4090 或 A100/H100),内存建议≥128GB
- 系统与驱动
- 建议使用 Windows 10/11 64 位
- NVIDIA 用户确认驱动版本≥525.60.13,可用 nvidia-smi 查看
- 存储预留
- 模型体积从约 35GB(7B) 到 400GB(67B) 不等,确保磁盘空间充足
五 仍未解决时请准备这些信息
- 报错原文(复制完整提示或截图)
- 执行命令与返回日志(如:ollama -v、ollama serve、ollama run deepseek-r1:8b)
- 系统版本(winver)、内存/显卡信息(任务管理器 → 性能)、Ollama 版本
- 是否修改过端口或环境变量(如 OLLAMA_HOST、OLLAMA_MODELS)