在 Windows 上安装与运行 DeepSeek‑R1 的简明指南
一 准备与环境要求
- 操作系统:Windows 10 或 Windows 11(建议 64 位)。
- 硬件建议:
- 入门体验:1.5B 版本,内存至少 8GB(推荐 16GB+),无独显也可运行,速度取决于 CPU 与磁盘。
- 进阶使用:7B/8B 版本,内存建议 16–32GB;有 4–8GB+ 显存的 NVIDIA 显卡体验更好。
- 高性能:14B/32B 版本,内存建议 32–64GB+,显存 12–24GB+ 更稳。
- 工具选择:本教程采用 Ollama 在本地一键拉取并运行模型,省去复杂环境配置。Ollama 默认本地服务端口为 11434。
二 安装步骤(Ollama + DeepSeek‑R1)
- 安装 Ollama
- 访问官网:https://ollama.com,下载 Windows 安装包并双击安装。
- 完成后在 PowerShell 或 CMD 执行:
ollama -v,出现版本号即表示安装成功。
- 运行 DeepSeek‑R1
- 直接拉取并启动模型(会自动下载):
- 入门:
ollama run **deepseek-r1:1.5b** - 进阶:
ollama run **deepseek-r1:7b** - 高性能:
ollama run **deepseek-r1:32b** - 首次下载耗时较长(取决于网络,国内常见为 30–60 分钟+),完成后进入对话界面可直接使用。
- 常用命令
- 查看已安装模型:
ollama list - 再次启动已安装模型:
ollama run **deepseek-r1:1.5b** - 如遇权限或端口占用问题,优先以管理员身份运行终端,并确保 11434 端口未被占用。
三 图形化客户端连接(可选)
- 使用 Chatbox(Windows/macOS/Linux/网页)
- 安装并打开 Chatbox,进入设置:
- 模型提供方:Ollama API
- 模型:deepseek-r1:1.5b(或你已安装的其他规格)
- API 地址:http://localhost:11434
- 保存后即可在图形界面中与模型对话,便于复制、导出与多会话管理。
四 常见问题与排障
- 下载慢或中断
- 建议使用稳定网络与下载工具;首次拉取 7B/32B 等较大规格时,耐心等待,必要时重复执行同一命令继续下载。
- 启动报错或找不到命令
- 以管理员身份运行 PowerShell/CMD;确认
ollama -v 正常;如端口冲突,检查并释放 11434。 - 显存不足或内存不够
- 选择更小的模型规格(如从 7B 降到 1.5B),或在 BIOS/系统中为 Ollama 分配更多内存;关闭占用大量内存的后台程序。
- 再次使用如何进入对话
- 无需重装:先确保 Ollama 应用处于运行状态,然后执行
ollama run **deepseek-r1:1.5b** 即可继续对话。
五 硬件规格与模型选择建议
| 模型版本 | 最低 CPU | 建议内存 | 独显建议 | 存储占用 |
|---|
| 1.5B | i5 / Ryzen 5 | 8GB+(推荐 16GB+) | 无硬性要求,1GB+ 显存可加速 | 约 10GB+ |
| 7B | i7 / Ryzen 7 | 16GB(推荐 32GB+) | 4–8GB+ 显存更稳 | 约 12–30GB |
| 14B | i9 / Ryzen 9 | 32GB(推荐 64GB) | 8–12GB+(如 RTX 3080 等) | 约 15–50GB |
| 32B | 高端多核 | 32GB(推荐 64GB+) | 18–24GB+(如 A100 等) | 约 20–80GB |
| 70B | 服务器级 CPU | 64GB(推荐 128GB+) | 40GB+(如 H100 等) | 约 30–200GB |
- 选择原则:在可接受的响应速度与质量之间平衡;内存与显存是首要瓶颈,规格越高对硬件要求越严。