Windows 安装 DeepSeek‑R1 的实用技巧
一 环境准备与版本选择
- 系统建议:Windows 10/11,命令行工具使用 PowerShell 或 CMD。
- 硬件与模型匹配(按显存/内存选择,优先从蒸馏版起步):
- 1.5B:适合入门与低配,CPU 也可运行,显存占用低。
- 7B:建议 16GB 内存 + RTX 4060 级别,创作/代码体验较均衡。
- 14B:建议 24GB+ 显存(如 RTX 4090),质量与速度更稳。
- 32B/70B:适合高端显卡与工作站,资源占用高。
- 超大模型如 671B 级别需多卡高端集群,个人电脑不建议尝试。
- 版本谱系:官方同时提供 满血版与蒸馏版(1.5B–70B),本地优先选蒸馏版以兼顾速度与效果。
二 两种本地部署方式与关键命令
1) 安装 Ollama:前往官网下载 Windows 安装包并安装,完成后在命令行执行 ollama --version 验证。
2) 运行模型(会自动拉取):
- 轻量体验:
ollama run deepseek-r1:1.5b - 均衡推荐:
ollama run deepseek-r1:7b - 进阶:
ollama run deepseek-r1:14b
3) 常用管理:
- 查看:
ollama list - 拉取:
ollama pull deepseek-r1:7b - 删除:
ollama rm deepseek-r1:7b
4) 服务端口:Ollama 默认本地 API 为 http://127.0.0.1:11434。
- 方式 B|图形化客户端(Chatbox / Cherry Studio)
- Chatbox:安装后在设置里选择 Ollama API,API 主机填 http://127.0.0.1:11434,模型选 deepseek-r1:1.5b/7b 即可对话。
- Cherry Studio:在“模型管理”添加 DeepSeek 模型,粘贴 API Key(如使用云端推理服务),按需调整 GPU 利用率 避免显存溢出。
三 把程序与模型装到 D 盘,避免 C 盘爆满
- 安装 Ollama 到 D 盘:在 PowerShell(管理员) 执行
D:\aitools\ollama-setup.exe /DIR="D:\aitools\Ollama"- 修改模型存储路径:
- 设置环境变量:
setx OLLAMA_MODELS "D:\aitools\models" - 重新打开命令行后,后续模型会下载到 D:aitoolsmodels。
- 之后使用方式与默认路径一致(
ollama pull/run/list/rm)。
四 常见问题与优化技巧
- 下载中断或很慢:重新执行
ollama pull deepseek-r1:7b 可断点续传;必要时更换网络环境。 - 显存不足:优先尝试 量化版本(如
deepseek-r1:7b-q4)、减小上下文长度,或改用 7B/1.5B;必要时升级显卡驱动。 - 响应延迟或卡顿:关闭占显存/内存的后台程序,必要时
ollama stop 后重启服务。 - 命令行权限问题:在 管理员 权限下运行 PowerShell/CMD 可降低报错概率。
- 服务未就绪:确认 Ollama 已安装并在后台运行,API 端口为 11434。
五 进阶使用
- 本地 Web 界面:安装 Open WebUI(
pip install open-webui),启动 open-webui serve,浏览器访问 http://127.0.0.1:8080,可多模型管理与知识库对接。 - 联网搜索:浏览器插件 Page Assist 支持开启“联网搜索”,获取实时网页内容辅助回答。
- 企业级知识库:使用 Dify 搭建工作流与权限管理,结合本地 Ollama 部署的 DeepSeek‑R1 做企业问答与数据对接。