Windows环境下DeepSeekR1怎么运行

AI技术
小华
2026-01-03

Windows 下运行 DeepSeek‑R1 的简明步骤
一 准备与环境

  • 系统要求:Windows 10/11 64 位,建议内存≥16GB;如需 GPU 加速,建议 NVIDIA 显卡驱动 ≥525.60.13,可用 nvidia-smi 检查驱动与 CUDA 状态。
  • 安装 Ollama:前往官网下载 Windows 安装包并安装,完成后在命令行执行 ollama --version 验证(应输出版本号)。
  • 安装 Chatbox(可选 GUI):从官网下载 Windows 版,安装后用于本地可视化对话。
  • 模型版本选择:常见标签有 1.5B / 7B / 8B / 14B / 32B;显存与内存越大,效果与速度越好。一般经验是每 1B 参数在 FP16 下约需 1.5–2GB 显存,量化(INT8/4-bit)可降至约 0.75–1GB/1B,因此 7B/8B 建议 ≥12GB 显存,32B 通常需要专业级 GPU 与量化/分片。

二 安装与运行 DeepSeek‑R1

  • 一键运行(推荐):在 PowerShell 或 CMD 中执行以下任一命令,首次会自动下载并进入对话。
  • 轻量体验:ollama run **deepseek-r1:1.5b**
  • 通用平衡:ollama run **deepseek-r1:7b**ollama run **deepseek-r1:8b**
  • 更强推理:ollama run **deepseek-r1:32b**(需较高显存/量化)
  • 查看与复用:
  • 查看已安装模型:ollama list
  • 再次进入对话:重复上面的 ollama run 命令即可。

三 图形界面 Chatbox

  • 打开 Chatbox → 设置 → API → 选择 OLLAMA API
  • 接口地址填写:http://localhost:11434(Ollama 默认端口);
  • 模型名称与已运行版本保持一致(如 deepseek-r1:7bdeepseek-r1:1.5b);
  • 保存后即可在 GUI 中与模型对话。

四 常见问题与排障

  • 端口被占用:netstat -aon | findstr 11434 查占用进程 PID,taskkill /PID /F 结束后再启动 Ollama。
  • 显存不足:优先选择更小模型(如 1.5B/7B),或使用量化版本;必要时改用 CPU 模式(性能会显著下降)。
  • 模型加载慢或中断:检查网络稳定性与磁盘空间,首次下载耗时属正常。
  • 再次运行方式:可直接执行 ollama run <模型标签>;如需查看本地模型列表用 ollama list

五 进阶配置与性能优化

  • 更改模型存储目录:设置环境变量 OLLAMA_MODELS 指向自定义路径(如 D:\ollama_models),便于管理大文件。
  • 指定安装目录:安装时可用命令 OllamaSetup.exe /dir="D:\Program Files\Ollama" 自定义 Ollama 安装位置。
  • 离线使用:在有网环境下载好模型后拷贝至离线机器,按上述方式运行;或使用 Chatbox 的离线模式。
  • 性能与显存优化:在支持的推理框架中启用 INT8/4-bit 量化 可显著降低显存占用(精度略有损失);大模型建议量化或分片,必要时考虑云端/专业 GPU。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序