DeepSeekR1在Windows上的安装流程

AI技术
小华
2025-12-05

Windows 上安装与运行 DeepSeek-R1 的完整流程
一 环境准备与版本选择

  • 操作系统:Windows 10 或 Windows 11
  • 硬件建议:
  • 入门体验:CPU 推理,内存≥8GB(推荐16GB+),存储≥20GB可用空间。
  • 更流畅体验:NVIDIA 显卡(如 GTX 1060 6GB 及以上),显存≥8GB更稳。
  • 模型规模与资源占用(按显存/内存与速度取舍):
  • 1.5B:约1–2GB;CPU 可跑,适合入门与低配。
  • 8B:约5–8GB;建议8GB+ 显存16GB+ 内存
  • 14B:约10–14GB;建议12GB+ 显存32GB+ 内存
  • 32B:约20–24GB;建议16GB+ 显存(如 RTX 4080/3090 等)。
  • 70B:约40–48GB;建议24GB+ 显存(如 RTX 4090 24GB 等)。
  • 说明:模型越大,对显存/内存磁盘空间要求越高,下载与运行时间也更长。

二 方案一 Ollama 一键安装与运行(推荐)

  • 步骤 1 安装 Ollama
  • 访问官网:https://ollama.com/,下载 Windows 安装包并双击安装。
  • 安装完成后在命令行执行:ollama -v,出现版本号即表示安装成功。
  • 步骤 2 拉取并运行模型
  • 入门建议先跑小模型(示例为 1.5B):
  • 拉取:ollama pull deepseek-r1:1.5b
  • 运行:ollama run deepseek-r1:1.5b
  • 其他规格(按硬件选择):deepseek-r1:8bdeepseek-r1:14bdeepseek-r1:32bdeepseek-r1:70b
  • 查看本地模型:ollama list
  • 步骤 3 图形界面客户端(可选)
  • 安装 Chatbox(Windows 客户端),在设置中选择 Ollama API,API 主机填 http://127.0.0.1:11434,模型选 deepseek-r1:1.5b 即可使用。
  • 步骤 4 常见问题与优化
  • 命令行建议使用管理员权限运行,避免权限或路径问题。
  • 下载慢可更换网络或在稳定网络环境下重试。
  • 更改模型默认存储路径:设置环境变量 OLLAMA_MODELS 指向你的目录(如 D:OllamaModels)。

三 方案二 源码方式 Cherry Studio 集成(面向开发者)

  • 适用场景:需要自定义推理、集成到自有应用或做二次开发。
  • 步骤 1 环境准备
  • Python 3.8–3.10GitCUDA Toolkit 11.7/11.8(如需 GPU 加速)。
  • 验证:python --versiongit --versionnvidia-smi(查看驱动与 CUDA)。
  • 步骤 2 获取与安装
  • 克隆与依赖:
git clone https://github.com/deepseek-ai/cherry-studio.git
cd cherry-studio
pip install -r requirements.txt
  • 建议使用虚拟环境:
python -m venv cherry_env
.\cherry_env\Scripts\activate
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install transformers>=4.34.0
  • 步骤 3 模型加载与优化
  • Hugging Face 获取模型(示例约25GB),本地路径如 C:modelsdeepseek-r1
  • 加载示例(按需调整精度/量化):
from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained(
"deepseek-ai/deepseek-r1",
device_map="auto",
torch_dtype=torch.float16,
load_in_4bit=True
)
  • 步骤 4 启动与访问
  • 启动 Web UI:
python app.py --model-path C:\models\deepseek-r1 --port 7860

四 快速对比与选型建议

方案适用人群依赖与环境优点局限
Ollama 一键安装初学者、快速体验Windows 10/11、Ollama安装简单、一条命令运行、可选 GUI 客户端模型规模受限显存/内存;高级定制较少
Cherry Studio 源码开发者、二次开发Python 3.8–3.10、CUDA、Git可深度定制、支持量化与多 GPU环境配置复杂、需维护依赖与代码

选型建议:优先用 Ollama 快速上手;需要集成到自有系统或做性能/精度调优时,再选 Cherry Studio 源码方式。

亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序