Windows 部署 DeepSeek-R1 的必备条件清单
一 硬件与系统
- 操作系统:Windows 10/11 64位(建议专业版/企业版,便于驱动与开发工具链稳定)。
- CPU:4核3.0GHz+(推荐8核3.5GHz+)。
- 内存:基础运行≥16GB,推荐32GB;大模型或并发场景建议64GB+。
- 存储:至少50GB可用空间(建议NVMe SSD);模型规模与占用参考:
- 7B:约20–35GB(量化后更小),建议预留50–100GB;
- 67B:约400GB,需≥128GB内存与高速SSD。
- GPU(可选但强烈建议):
- 入门:NVIDIA RTX 2060 6GB(量化推理可用);
- 推荐:RTX 3060 12GB+ / 3090 / 4090;
- 数据中心:A100 / H100;
- 驱动:≥535.86,CUDA版本与驱动需匹配。
二 软件与依赖
- Python:3.8–3.10(部分教程使用3.11);建议使用Miniconda/venv隔离环境。
- CUDA/cuDNN:
- 方案A:CUDA 11.7/11.8 + 对应cuDNN;
- 方案B:CUDA 12.x(如12.2/12.4)与驱动匹配安装。
- PyTorch:选择与CUDA匹配的版本,例如:
- torch==2.0.1+cu118 或 torch==2.1.0+cu121。
- 推理/部署框架(三选一或组合):
- Ollama(Windows版,开箱即用,默认端口11434);
- vLLM(高性能推理,支持张量并行);
- Transformers + FastAPI/Uvicorn(原生PyTorch,便于自定义服务化)。
- 工具链与可选组件:Git、CMake(部分构建需要)、WSL2(可选,便于Linux工具链与脚本)。
三 模型与存储准备
- 模型规模与选择:
- 1.5B/7B:适合本地与边缘环境(显存≥8GB可量化运行);
- 67B:需多GPU/数据中心级硬件(显存≥80GB级别)。
- 获取方式:
- 通过Ollama拉取:
ollama pull deepseek-r1:7b(或量化标签如q4_0); - 通过Hugging Face克隆/下载:
git lfs install && git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-7B。 - 存储路径与结构:建议统一放置(如C:modelsdeepseek_r1),包含config.json、pytorch_model.bin/tokenizer.json等。
- 完整性校验:使用SHA-256或MD5校验模型文件,防止下载损坏。
四 网络与端口及常见问题要点
- 本地访问端口:Ollama 默认 11434;自建FastAPI/Uvicorn常用8000/5000等,需在防火墙放行对应端口。
- 常见问题速查:
- CUDA out of memory:降低batch_size、启用量化(4bit/8bit)、减少gpu_layers或使用low-vram模式;
- DLL 加载失败:安装VC++ 2015–2022 可再发行组件;
- 模型加载慢/失败:检查驱动/CUDA版本匹配、磁盘空间与文件完整性;
- API 无响应/端口冲突:更换端口、排查占用进程、查看服务日志。