Windows 本地部署 DeepSeek R1 常见问题解答
一 环境要求与版本选择
nvidia-smi 验证;CPU 模式需 AMD/Intel 支持 AVX2。ollama --version;可选 Chatbox / Open-WebUI 作为前端。二 安装与模型拉取
OllamaSetup.exe /dir="D:\Program Files\Ollama"。ollama_models,值为目标路径(如 D:\ollama_models),重启终端或托盘程序生效。ollama run deepseek-r1:1.5b(入门)、ollama run deepseek-r1:8b(均衡)、ollama run deepseek-r1:7b(量化常用)。ollama pull <模型名>。ollama list 查看已安装模型。三 启动与端口冲突
netstat -aon | findstr 11434tasklist | findstr "" taskkill /PID /F ollama run。open-webui serve --port 8090,浏览器访问 http://localhost:8090。四 性能与显存优化
deepseek-r1:7b-q4_k_m),在接近效果的同时显著降低显存占用。batch_size、上下文长度;GPU 模式下可调整 gpu_layers;CPU 模式建议内存≥32GB。五 前端连接与离线使用
http://localhost:11434deepseek-r1:1.5b 或 deepseek-r1:8b)open-webui serve,浏览器访问 http://localhost:8080,在设置中选择或添加本地模型。