在 Windows 上安装与运行 DeepSeek-R1 的完整步骤
一 环境准备与版本选择
- 操作系统:建议使用 Windows 10 或 Windows 11。
- 硬件建议:内存至少 8GB(推荐 16GB+);有 NVIDIA 显卡可提升性能(如 4–8GB 显存更流畅)。
- 模型规模与资源预估(典型值,便于选型):
- 1.5B:内存 8GB+,存储 ≥10GB,CPU 可运行
- 7B:内存 16GB+,存储 ≥12GB,建议 4GB+ 显存
- 14B:内存 32GB+,存储 ≥15GB,建议 8GB+ 显存
- 32B:内存 32GB+,存储 ≥20GB,建议 24GB+ 显存
- 说明:参数越大,推理质量与上下文能力越强,但对 内存/显存/磁盘 要求越高。
二 方法一 Ollama 一键安装与运行(推荐)
- 步骤 1 安装 Ollama
- 访问官网 https://ollama.com,下载并安装 Windows 版本(Ollama 为本地运行大模型工具)。
- 安装完成后,打开 PowerShell 或 CMD,执行
ollama -v 验证是否安装成功(显示版本号即正常)。 - 步骤 2 运行 DeepSeek-R1
- 在终端执行以下任一命令,Ollama 会自动拉取并启动模型(首次下载较慢,属正常):
- 轻量体验:
ollama run **deepseek-r1:1.5b** - 更强推理:
ollama run **deepseek-r1:32b** - 下载完成后进入对话界面,可直接输入问题与模型交互。
- 步骤 3 常用命令
- 查看本地模型:
ollama list - 再次启动已安装模型:
ollama run **deepseek-r1:1.5b** - 步骤 4 图形化客户端(可选)
- 安装 Chatbox(https://chatboxai.app/),在设置中选择 Ollama API,模型填
deepseek-r1:1.5b,API 地址用 http://localhost:11434(Ollama 默认端口)。
三 方法二 使用 GGUF 模型与自定义 Modelfile(离线/自选模型)
- 适用场景:希望离线使用、或精确控制模型文件(GGUF)与量化等级。
- 步骤 1 准备 GGUF 文件
- 例如从社区下载 DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf(约 1.89GB),保存到如 *D:models*。
- 步骤 2 创建 Modelfile
- 在 D:* 新建文本文件,命名为 Modelfile*(无后缀),内容:
FROM D:/models/DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf- 步骤 3 通过 Ollama 导入并运行
- 终端执行:
- 创建本地模型:
ollama create **my-r1-1.5b** -f Modelfile - 查看模型:
ollama list - 运行模型:
ollama run **my-r1-1.5b** - 说明:路径需使用 绝对路径;导入成功后即可像普通模型一样对话。
四 常见问题与优化
- 首次或再次运行
- 首次需联网下载模型;后续可直接
ollama run **模型名** 启动。若提示服务未启动,先确保 Ollama 应用处于运行状态。 - 命令行权限与稳定性
- 如遇权限或网络错误,建议以 管理员身份 运行 PowerShell/CMD。
- 性能与显存优化
- 优先选择 量化版本(如 Q4/Q8)以降低显存占用;显存不足时可改用 CPU 或小模型(1.5B/7B)。
- 有 NVIDIA 显卡时,确保 显卡驱动 与 CUDA 匹配;Ollama 会自动利用可用 GPU 加速。
- 下载慢或中断
- 可更换网络、使用下载工具或镜像源;耐心等待首次完整下载完成。