• 首页 > 
  • AI技术 > 
  • DeepSeekR1 Windows部署常见问题解答

DeepSeekR1 Windows部署常见问题解答

AI技术
小华
2026-01-10

Windows 本地部署 DeepSeek R1 常见问题解答
一 环境要求与版本选择

  • 系统建议:Windows 10/11 64 位,内存至少16GB(运行 7B 量化版时占用约14GB 显存),磁盘预留50GB+;需稳定网络以下载模型。
  • 显卡与驱动:NVIDIA 显卡驱动建议≥525.60.13,可用 nvidia-smi 验证;CPU 模式需 AMD/Intel 支持 AVX2
  • 模型规模与显存(按显存优先选择,显存≠内存):
  • 1.5B:无强制 GPU;内存≥8GB(推荐16GB+);存储≥10GB
  • 7B/8B:推荐 8–12GB 显存;内存≥16GB(推荐32GB+);存储≥30GB
  • 14B:推荐 12GB+ 显存;内存≥32GB(推荐64GB);存储≥50GB
  • 32B/70B:多核 CPU、显存24–40GB+;内存64GB+;存储80–200GB+
  • 工具链:安装 Ollama for Windows 并验证 ollama --version;可选 Chatbox / Open-WebUI 作为前端。

二 安装与模型拉取

  • 安装 Ollama:从官网下载安装包,双击安装;如需自定义安装目录,可用命令:OllamaSetup.exe /dir="D:\Program Files\Ollama"
  • 指定模型存储目录:新建系统环境变量 ollama_models,值为目标路径(如 D:\ollama_models),重启终端或托盘程序生效。
  • 拉取并运行模型:
  • 示例(按硬件选择):ollama run deepseek-r1:1.5b(入门)、ollama run deepseek-r1:8b(均衡)、ollama run deepseek-r1:7b(量化常用)。
  • 首次会自动下载,耗时取决于网络;如需仅下载:ollama pull <模型名>
  • 验证:ollama list 查看已安装模型。

三 启动与端口冲突

  • 端口占用(Ollama 默认 11434):
  • 查占用:netstat -aon | findstr 11434
  • 查进程:tasklist | findstr ""
  • 结束进程:taskkill /PID /F
  • 重启服务后再次尝试 ollama run
  • 前端端口冲突(如 Open-WebUI 默认 8080):启动时更换端口,例如 open-webui serve --port 8090,浏览器访问 http://localhost:8090
  • 无法启动或端口被占用时,优先检查是否有旧进程残留并释放端口。

四 性能与显存优化

  • 选对规模:显存不足时优先 1.5B/7B 量化,必要时用 CPU 模式(速度显著下降)。
  • 量化优先:在 Ollama 选择 Q4_K / Q5_K_M 等量化标签(如 deepseek-r1:7b-q4_k_m),在接近效果的同时显著降低显存占用。
  • 参数与资源:适当降低 batch_size、上下文长度;GPU 模式下可调整 gpu_layers;CPU 模式建议内存≥32GB
  • 工具链优化:安装 CUDA 11.8+ 与匹配驱动;在支持的推理框架中启用 TensorRTINT8/INT4 量化 可进一步提升速度。

五 前端连接与离线使用

  • Chatbox 配置:
  • API 类型:OLLAMA API;接口地址:http://localhost:11434
  • 模型名称:与本地一致(如 deepseek-r1:1.5bdeepseek-r1:8b
  • Open-WebUI:安装后启动 open-webui serve,浏览器访问 http://localhost:8080,在设置中选择或添加本地模型。
  • 离线使用要点:
  • 在有网环境提前下载模型(如 1.5B/7B),拷贝至离线机;
  • 安装 Chatbox 选择离线模式;
  • 断开网络后仍能对话即为离线生效。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序