virtualenv隔离依赖)。访问Ollama官网下载Windows版本安装包,双击运行,按照向导提示完成安装(安装时建议勾选“Add Ollama to PATH”,方便命令行调用)。安装完成后,打开命令提示符(Win+R输入cmd),输入ollama -v验证是否安装成功(显示版本号即为成功)。
在命令提示符中输入以下命令(根据硬件选择模型大小):
ollama run deepseek-r1:1.5b;ollama run deepseek-r1:7b;ollama run deepseek-r1:32b;ollama run deepseek-r1:70b。命令会自动从远程仓库拉取模型权重并保存至本地缓存(默认路径为C:\Users\你的用户名\.ollama\models),下载完成后自动启动模型。
若需更改模型下载路径,可新建环境变量OLLAMA_MODELS,变量值为自定义路径(如D:\models\deepseek),避免占用C盘空间。
若使用NVIDIA GPU,需提前安装CUDA Toolkit 12.1及以上版本、cuDNN库(将cudnn.lib拷贝至CUDA安装目录的lib\x64文件夹)。运行模型时,通过--gpu参数启用GPU加速(如ollama run deepseek-r1:7b --gpu),显著提升推理速度。
推荐安装Chatbox(开源GUI工具),下载后打开配置文件,设置“API模型”为“Ollama API”,API主机为http://127.0.0.1:11434,默认模型选择“deepseek-r1”,即可通过图形界面与模型交互(支持代码生成、文本对话等功能)。
若运行时提示“显存不足”,可尝试降低模型版本(如从7B换成1.5B),或升级显卡驱动(通过NVIDIA GeForce Experience更新至最新版本)。
若模型输出乱码,需在Chatbox或终端设置中调整编码为“UTF-8”(Windows默认编码为GBK,易导致中文乱码)。
若需获取模型最新版本,可在命令提示符中输入ollama pull deepseek-r1:[版本号](如ollama pull deepseek-r1:7b),自动拉取并替换本地模型。
以上技巧覆盖了DeepSeekR1在Windows上的安装全流程及常见问题,遵循这些步骤可快速完成部署并优化使用体验。