Windows 10/11 本地部署 DeepSeek-R1 步骤
一 准备与环境
- 操作系统:Windows 10 或 Windows 11(建议 64 位)。
- 硬件建议:内存至少 8GB(推荐 16GB+);有 NVIDIA 显卡可显著提升速度(如 4GB+ 显存更流畅)。
- 工具选择:使用 Ollama 一键拉取并运行模型,省去复杂环境配置。
- 网络与磁盘:首次拉取模型需稳定网络与充足磁盘空间(模型体积随参数规模增大而显著增加)。
二 安装 Ollama
- 访问官网:https://ollama.com,下载 Windows 安装包并双击安装。
- 完成后在命令行执行:
ollama -v,出现版本号即表示安装成功。 - 说明:Ollama 安装完成后会在本机提供本地模型服务,后续通过命令行或客户端连接使用。
三 拉取并运行 DeepSeek-R1
- 打开命令行(PowerShell 或 CMD),根据硬件选择合适参数规模的模型并执行命令,例如:
- 入门体验:
ollama run deepseek-r1:1.5b - 进阶推理:
ollama run deepseek-r1:8b - 更强效果:
ollama run deepseek-r1:32b - 首次运行会自动下载模型,完成后进入对话界面,可直接输入问题交互。
- 查看已安装模型:
ollama list;再次使用时,直接执行相同命令即可继续对话。
四 图形界面客户端连接
- ChatBox(推荐)
- 安装并打开 ChatBox,在设置中选择模型提供方 Ollama API,模型选
deepseek-r1:1.5b(或已安装的其他规模),API 地址填写 http://localhost:11434,保存后即可使用。 - 浏览器插件 Page Assist
- 安装 Page Assist 扩展,在插件设置中将 Ollama 地址设为 http://localhost:11434,选择模型
deepseek-r1:* 即可在网页侧边栏对话。
五 常见问题与优化
- 运行报错或权限问题:尝试以管理员身份运行命令行;首次安装或拉取模型时保持网络稳定。
- 再次使用如何启动:保持 Ollama 运行,执行
ollama run deepseek-r1:<规模> 即可进入对话。 - 模型规模与资源:参数越大效果越好但更吃资源;在 1.5B/7B/8B/14B/32B/70B 等规格中按内存与显存选择,避免超出硬件承载。
- 下载慢或中断:可更换网络、分时段重试;必要时选择更小参数规模先行体验。
- 本地 API 调用:Ollama 默认端口 11434,可用
http://localhost:11434/api/generate 进行接口调试与集成。