怎样在Windows上安装DeepSeekR1

AI技术
小华
2026-01-10

在 Windows 上安装与运行 DeepSeek-R1 的完整步骤
一 环境准备与版本选择

  • 操作系统:建议使用 Windows 10 或 Windows 11
  • 硬件建议:内存至少 8GB(推荐 16GB+);有 NVIDIA 显卡可提升性能(如 4–8GB 显存更流畅)。
  • 模型规模与资源预估(典型值,便于选型):
  • 1.5B:内存 8GB+,存储 ≥10GB,CPU 可运行
  • 7B:内存 16GB+,存储 ≥12GB,建议 4GB+ 显存
  • 14B:内存 32GB+,存储 ≥15GB,建议 8GB+ 显存
  • 32B:内存 32GB+,存储 ≥20GB,建议 24GB+ 显存
  • 说明:参数越大,推理质量与上下文能力越强,但对 内存/显存/磁盘 要求越高。

二 方法一 Ollama 一键安装与运行(推荐)

  • 步骤 1 安装 Ollama
  • 访问官网 https://ollama.com,下载并安装 Windows 版本(Ollama 为本地运行大模型工具)。
  • 安装完成后,打开 PowerShell 或 CMD,执行 ollama -v 验证是否安装成功(显示版本号即正常)。
  • 步骤 2 运行 DeepSeek-R1
  • 在终端执行以下任一命令,Ollama 会自动拉取并启动模型(首次下载较慢,属正常):
  • 轻量体验:ollama run **deepseek-r1:1.5b**
  • 更强推理:ollama run **deepseek-r1:32b**
  • 下载完成后进入对话界面,可直接输入问题与模型交互。
  • 步骤 3 常用命令
  • 查看本地模型:ollama list
  • 再次启动已安装模型:ollama run **deepseek-r1:1.5b**
  • 步骤 4 图形化客户端(可选)
  • 安装 Chatboxhttps://chatboxai.app/),在设置中选择 Ollama API,模型填 deepseek-r1:1.5b,API 地址用 http://localhost:11434(Ollama 默认端口)。

三 方法二 使用 GGUF 模型与自定义 Modelfile(离线/自选模型)

  • 适用场景:希望离线使用、或精确控制模型文件(GGUF)与量化等级。
  • 步骤 1 准备 GGUF 文件
  • 例如从社区下载 DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf(约 1.89GB),保存到如 *D:models*
  • 步骤 2 创建 Modelfile
  • D:* 新建文本文件,命名为 Modelfile*(无后缀),内容:
  • FROM D:/models/DeepSeek-R1-Distill-Qwen-1.5B-Q8_0.gguf
  • 步骤 3 通过 Ollama 导入并运行
  • 终端执行:
  • 创建本地模型:ollama create **my-r1-1.5b** -f Modelfile
  • 查看模型:ollama list
  • 运行模型:ollama run **my-r1-1.5b**
  • 说明:路径需使用 绝对路径;导入成功后即可像普通模型一样对话。

四 常见问题与优化

  • 首次或再次运行
  • 首次需联网下载模型;后续可直接 ollama run **模型名** 启动。若提示服务未启动,先确保 Ollama 应用处于运行状态
  • 命令行权限与稳定性
  • 如遇权限或网络错误,建议以 管理员身份 运行 PowerShell/CMD。
  • 性能与显存优化
  • 优先选择 量化版本(如 Q4/Q8)以降低显存占用;显存不足时可改用 CPU 或小模型(1.5B/7B)
  • 有 NVIDIA 显卡时,确保 显卡驱动CUDA 匹配;Ollama 会自动利用可用 GPU 加速。
  • 下载慢或中断
  • 可更换网络、使用下载工具或镜像源;耐心等待首次完整下载完成。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序