Windows 上安装与运行 DeepSeek-R1 的完整流程
一 环境准备与版本选择
二 方案一 Ollama 一键安装与运行(推荐)
ollama -v,出现版本号即表示安装成功。ollama pull deepseek-r1:1.5bollama run deepseek-r1:1.5bdeepseek-r1:8b、deepseek-r1:14b、deepseek-r1:32b、deepseek-r1:70bollama list三 方案二 源码方式 Cherry Studio 集成(面向开发者)
python --version、git --version、nvidia-smi(查看驱动与 CUDA)。git clone https://github.com/deepseek-ai/cherry-studio.git
cd cherry-studio
pip install -r requirements.txtpython -m venv cherry_env
.\cherry_env\Scripts\activate
pip install torch torchvision --index-url https://download.pytorch.org/whl/cu118
pip install transformers>=4.34.0from transformers import AutoModelForCausalLM
model = AutoModelForCausalLM.from_pretrained(
"deepseek-ai/deepseek-r1",
device_map="auto",
torch_dtype=torch.float16,
load_in_4bit=True
)python app.py --model-path C:\models\deepseek-r1 --port 7860四 快速对比与选型建议
| 方案 | 适用人群 | 依赖与环境 | 优点 | 局限 |
|---|---|---|---|---|
| Ollama 一键安装 | 初学者、快速体验 | Windows 10/11、Ollama | 安装简单、一条命令运行、可选 GUI 客户端 | 模型规模受限显存/内存;高级定制较少 |
| Cherry Studio 源码 | 开发者、二次开发 | Python 3.8–3.10、CUDA、Git | 可深度定制、支持量化与多 GPU | 环境配置复杂、需维护依赖与代码 |
选型建议:优先用 Ollama 快速上手;需要集成到自有系统或做性能/精度调优时,再选 Cherry Studio 源码方式。