Windows上安装DeepSeekR1的详细步骤

AI技术
小华
2025-12-05

Windows 上安装与运行 DeepSeek-R1 的详细步骤
一 环境准备与版本选择

  • 系统要求:Windows 10/11,建议 21H2 及以上
  • 硬件建议:内存至少 16GB(推荐 32GB+);如需 GPU 加速,建议 NVIDIA RTX 3060 及以上、显存 ≥ 8GB,并准备 ≥ 50GB 可用 SSD 空间(模型文件通常 20–30GB)。
  • 模型规模与资源占用(按显存/内存粗略参考):
  • 1.5B:CPU 可运行,响应快,适合入门与低配设备
  • 8B:建议 16GB+ 内存
  • 14B:建议 32GB+ 内存
  • 32B:建议 24GB 显存32GB+ 内存
  • 70B:建议 40GB+ 显存,CPU 模式需 64GB+ 内存
  • 说明:DeepSeek-R1 提供多尺寸蒸馏模型,尺寸越大推理质量通常越好,但资源占用越高。

二 方法一 Ollama 本地一键部署(推荐)

  • 步骤 1 安装 Ollama
  • 访问官网 https://ollama.com,下载 Windows 安装包并安装(Ollama 默认安装在 C 盘,需预留 ≥ 5GB 空间)。
  • 安装完成后打开命令行(CMD/PowerShell),执行:ollama -v,出现版本号即表示安装成功。
  • 步骤 2 拉取并运行模型
  • 在命令行执行(以 1.5B 为例):ollama run deepseek-r1:1.5b
  • 首次运行会自动下载模型,完成后进入对话界面,可直接输入问题进行测试。
  • 其他尺寸示例:ollama run deepseek-r1:8bollama run deepseek-r1:14bollama run deepseek-r1:32bollama run deepseek-r1:70b
  • 仅下载不运行:ollama pull deepseek-r1:1.5b
  • 查看已安装模型:ollama list
  • 步骤 3 更改模型存储路径(可选)
  • 设置环境变量 OLLAMA_MODELS 指向你的模型目录,例如:OLLAMA_MODELS=D:\OllamaModels
  • 步骤 4 图形界面客户端(可选)
  • 安装 Chatboxhttps://chatboxai.app/),在设置中选择 Ollama API,API 主机填 http://127.0.0.1:11434,模型选择 deepseek-r1:1.5b 即可使用。

三 方法二 Python 与 Transformers 原生加载(进阶)

  • 步骤 1 准备环境
  • 建议 Python 3.8–3.10;创建虚拟环境:python -m venv venv && venv\Scripts\activate
  • 安装依赖:pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118pip install transformers>=4.34.0
  • 步骤 2 从 Hugging Face 加载模型
  • 示例(FP16,需较高显存):
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("deepseek-ai/deepseek-r1", torch_dtype=torch.float16, device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("deepseek-ai/deepseek-r1")
  • 显存优化(4-bit 量化,适合 8–12GB 显存):
model = AutoModelForCausalLM.from_pretrained(
"deepseek-ai/deepseek-r1",
device_map="auto",
torch_dtype=torch.float16,
load_in_4bit=True
)
  • 步骤 3 推理示例
prompt = "用 Python 实现快速排序"
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
  • 说明:也可结合 Cherry Studio 等前端,通过本地 Transformers 后端进行可视化对话与开发。

四 常见问题与排查

  • 下载慢或中断:更换网络、使用镜像源或重试命令;Ollama 首次拉取模型耗时较长属正常。
  • 命令行报错:以 管理员权限 运行 CMD/PowerShell;确保 Windows 10/11 且 Ollama 安装成功(ollama -v)。
  • 显存不足:优先选择 1.5B/8B;或使用 4-bit 量化 降低显存占用(精度略有损失)。
  • 更改模型存放位置:设置环境变量 OLLAMA_MODELS 指向新目录,避免 C 盘空间不足。
  • 服务端口:Ollama 默认本地端口 11434;若被占用,检查是否已有实例运行或更改端口后重启。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序