Windows系统安装DeepSeekR1的技巧

AI技术
小华
2025-12-05

Windows 安装 DeepSeek‑R1 的实用技巧
一 环境准备与版本选择

  • 系统建议:Windows 10/11,命令行工具使用 PowerShell 或 CMD
  • 硬件与模型匹配(按显存/内存选择,优先从蒸馏版起步):
  • 1.5B:适合入门与低配,CPU 也可运行,显存占用低。
  • 7B:建议 16GB 内存 + RTX 4060 级别,创作/代码体验较均衡。
  • 14B:建议 24GB+ 显存(如 RTX 4090),质量与速度更稳。
  • 32B/70B:适合高端显卡与工作站,资源占用高。
  • 超大模型如 671B 级别需多卡高端集群,个人电脑不建议尝试。
  • 版本谱系:官方同时提供 满血版与蒸馏版(1.5B–70B),本地优先选蒸馏版以兼顾速度与效果。

二 两种本地部署方式与关键命令

  • 方式 A|Ollama 一条命令运行(最省事)

1) 安装 Ollama:前往官网下载 Windows 安装包并安装,完成后在命令行执行 ollama --version 验证。
2) 运行模型(会自动拉取):

  • 轻量体验:ollama run deepseek-r1:1.5b
  • 均衡推荐:ollama run deepseek-r1:7b
  • 进阶:ollama run deepseek-r1:14b

3) 常用管理:

  • 查看:ollama list
  • 拉取:ollama pull deepseek-r1:7b
  • 删除:ollama rm deepseek-r1:7b

4) 服务端口:Ollama 默认本地 API 为 http://127.0.0.1:11434

  • 方式 B|图形化客户端(Chatbox / Cherry Studio)
  • Chatbox:安装后在设置里选择 Ollama API,API 主机填 http://127.0.0.1:11434,模型选 deepseek-r1:1.5b/7b 即可对话。
  • Cherry Studio:在“模型管理”添加 DeepSeek 模型,粘贴 API Key(如使用云端推理服务),按需调整 GPU 利用率 避免显存溢出。

三 把程序与模型装到 D 盘,避免 C 盘爆满

  • 安装 Ollama 到 D 盘:在 PowerShell(管理员) 执行
  • D:\aitools\ollama-setup.exe /DIR="D:\aitools\Ollama"
  • 修改模型存储路径:
  • 设置环境变量:setx OLLAMA_MODELS "D:\aitools\models"
  • 重新打开命令行后,后续模型会下载到 D:aitoolsmodels
  • 之后使用方式与默认路径一致(ollama pull/run/list/rm)。

四 常见问题与优化技巧

  • 下载中断或很慢:重新执行 ollama pull deepseek-r1:7b 可断点续传;必要时更换网络环境。
  • 显存不足:优先尝试 量化版本(如 deepseek-r1:7b-q4)、减小上下文长度,或改用 7B/1.5B;必要时升级显卡驱动。
  • 响应延迟或卡顿:关闭占显存/内存的后台程序,必要时 ollama stop 后重启服务。
  • 命令行权限问题:在 管理员 权限下运行 PowerShell/CMD 可降低报错概率。
  • 服务未就绪:确认 Ollama 已安装并在后台运行,API 端口为 11434

五 进阶使用

  • 本地 Web 界面:安装 Open WebUIpip install open-webui),启动 open-webui serve,浏览器访问 http://127.0.0.1:8080,可多模型管理与知识库对接。
  • 联网搜索:浏览器插件 Page Assist 支持开启“联网搜索”,获取实时网页内容辅助回答。
  • 企业级知识库:使用 Dify 搭建工作流与权限管理,结合本地 Ollama 部署的 DeepSeek‑R1 做企业问答与数据对接。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序