Windows 安装 DeepSeek-R1 实操指南
一 环境准备与版本选择
- 系统要求:Windows 10/11 64 位,建议内存≥16GB;有 NVIDIA/AMD 显卡可获得明显加速。
- 安装工具:使用 Ollama 一键拉取并运行模型,Windows 安装包体积约745MB,首次下载可能较慢。
- 模型规模与建议:
- 1.5B:入门体验,CPU 也可运行,速度较快但能力有限。
- 7B/8B:主流选择,建议16GB+ 内存,有独显更佳。
- 14B/32B:更强推理能力,建议32GB+ 内存,7B 实测占用约14GB 显存;32B 需更高显存/内存。
- 70B:最高精度,资源需求极高,适合高端 GPU。
- 客户端(可选):ChatBox 或 Cherry Studio,便于图形化对话与多模型管理。
二 快速安装步骤(Ollama 一条命令)
- 安装 Ollama
- 拉取并运行模型(首次会自动下载)
- 入门:
ollama run **deepseek-r1:1.5b** - 进阶:
ollama run **deepseek-r1:7b**(或 8B/14B/32B) - 下载慢可重试或更换网络/时段。
- 验证安装
- 查看本地模型:
ollama list - 直接在控制台对话测试。
- 图形化客户端(可选)
- ChatBox:设置模型提供方为 Ollama API,API 地址 http://127.0.0.1:11434,模型选 deepseek-r1:1.5b/7b。
- Cherry Studio:添加本地模型路径或使用 Ollama 集成,配置推理参数(如 max_length、temperature)。
三 硬件与性能优化建议
- 量化优先:显存有限时使用 4-bit/8-bit 量化(如命令含 q4_k_m 的变体),在显存占用与质量间取得平衡。
- 显存与层数:通过配置 gpu_layers 控制加载到 GPU 的层数;遇到 CUDA out of memory 时降低该值或使用低显存模式。
- 内存与速度:实测 7B 占用约14GB 显存;内存建议32GB起步,复杂任务更稳。
- 电源与驱动:NVIDIA 控制面板将电源管理模式设为最高性能优先,并更新驱动至较新版本。
四 常见问题与排查
- 下载慢/中断:更换网络、使用有线/稳定 Wi-Fi,或重试命令;必要时用下载工具分片下载。
- 权限报错:命令行以管理员身份运行(CMD/PowerShell)。
- 端口占用:Ollama 默认端口 11434;若被占用,结束占用进程或在客户端中修改为可用端口。
- 显存不足:改用更小模型(如 1.5B/7B),或启用量化并降低 gpu_layers。
- 模型损坏:校验文件哈希或重新拉取;确保磁盘空间充足(建议预留50GB+)。
五 离线部署简要方案
- 在有网设备下载模型或 Ollama 包,拷贝至 U 盘。
- 离线安装 Ollama 与客户端(ChatBox 可选离线模式)。
- 将模型文件放入 Ollama 模型目录(如 C:Users<用户名>.ollamamodels),按指引创建配置后执行
ollama run <模型名>。 - 在 ChatBox 中设置 API 地址 http://127.0.0.1:11434,选择对应模型进行对话。