DeepSeekR1在Windows上的部署流程
pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu121
安装)。git lfs install
)。Ollama是Windows部署DeepSeekR1的推荐工具,支持一键拉取、运行和管理模型。
cmd
),输入ollama --version
,显示版本号则安装成功。通过Ollama命令拉取所需模型版本(如1.5B、7B、14B等),模型会自动下载至本地(默认路径为C:\Users\你的用户名\.ollama\models
)。
ollama pull deepseek-r1:7b
。OLLAMA_MODELS
环境变量指向本地模型目录);--gpu-layers 0
强制使用CPU(推理速度下降约60%)。通过Ollama命令启动模型,生成API端点(默认http://localhost:11434
),供后续交互或集成使用。
ollama run deepseek-r1:7b
(后台运行,显示模型日志)。config.json
文件(如设置temperature=0.7
、max_tokens=2000
),通过ollama run deepseek-r1:7b --config config.json
启动。为简化交互,可安装Chatbox等图形化工具,支持Web界面对话、API调用等功能。
http://localhost:11434
),可选设置认证令牌(在Ollama配置文件中添加auth_token: "your_token"
)。ollama create my-deepseek -f ./Modelfile --size 4b
(Modelfile示例:FROM deepseek-r1:7b
+ QUANTIZE q4_k_m
)。torch_dtype=torch.float16
(需RTX 30/40系GPU),提升推理速度。device_map="auto"
自动分配多GPU资源(适用于多GPU环境)。C:\Program Files\Ollama
)添加至系统环境变量PATH
。OLLAMA_MODELS
指向本地目录)或使用代理工具。