Windows 下运行 DeepSeek‑R1 的简明步骤
一 准备与环境
- 系统要求:Windows 10/11 64 位,建议内存≥16GB;如需 GPU 加速,建议 NVIDIA 显卡驱动 ≥525.60.13,可用
nvidia-smi 检查驱动与 CUDA 状态。 - 安装 Ollama:前往官网下载 Windows 安装包并安装,完成后在命令行执行
ollama --version 验证(应输出版本号)。 - 安装 Chatbox(可选 GUI):从官网下载 Windows 版,安装后用于本地可视化对话。
- 模型版本选择:常见标签有 1.5B / 7B / 8B / 14B / 32B;显存与内存越大,效果与速度越好。一般经验是每 1B 参数在 FP16 下约需 1.5–2GB 显存,量化(INT8/4-bit)可降至约 0.75–1GB/1B,因此 7B/8B 建议 ≥12GB 显存,32B 通常需要专业级 GPU 与量化/分片。
二 安装与运行 DeepSeek‑R1
- 一键运行(推荐):在 PowerShell 或 CMD 中执行以下任一命令,首次会自动下载并进入对话。
- 轻量体验:
ollama run **deepseek-r1:1.5b** - 通用平衡:
ollama run **deepseek-r1:7b** 或 ollama run **deepseek-r1:8b** - 更强推理:
ollama run **deepseek-r1:32b**(需较高显存/量化) - 查看与复用:
- 查看已安装模型:
ollama list - 再次进入对话:重复上面的
ollama run 命令即可。
三 图形界面 Chatbox
- 打开 Chatbox → 设置 → API → 选择 OLLAMA API;
- 接口地址填写:http://localhost:11434(Ollama 默认端口);
- 模型名称与已运行版本保持一致(如 deepseek-r1:7b 或 deepseek-r1:1.5b);
- 保存后即可在 GUI 中与模型对话。
四 常见问题与排障
- 端口被占用:
netstat -aon | findstr 11434 查占用进程 PID,taskkill /PID /F 结束后再启动 Ollama。 - 显存不足:优先选择更小模型(如 1.5B/7B),或使用量化版本;必要时改用 CPU 模式(性能会显著下降)。
- 模型加载慢或中断:检查网络稳定性与磁盘空间,首次下载耗时属正常。
- 再次运行方式:可直接执行
ollama run <模型标签>;如需查看本地模型列表用 ollama list。
五 进阶配置与性能优化
- 更改模型存储目录:设置环境变量 OLLAMA_MODELS 指向自定义路径(如
D:\ollama_models),便于管理大文件。 - 指定安装目录:安装时可用命令
OllamaSetup.exe /dir="D:\Program Files\Ollama" 自定义 Ollama 安装位置。 - 离线使用:在有网环境下载好模型后拷贝至离线机器,按上述方式运行;或使用 Chatbox 的离线模式。
- 性能与显存优化:在支持的推理框架中启用 INT8/4-bit 量化 可显著降低显存占用(精度略有损失);大模型建议量化或分片,必要时考虑云端/专业 GPU。