Windows 安装 DeepSeek R1 的难题一站式解决
一、最快上手路径 Ollama + Chatbox
ollama --version
看到版本号即成功。
ollama run deepseek-r1:1.5b
ollama run deepseek-r1:8b
首次会自动下载,完成后可直接对话。
ollama list(查看已安装模型)
ollama run deepseek-r1:8b(直接启动对话)
以上步骤适合零基础用户,最快在本地跑通 DeepSeek R1。
二、硬件选型与模型规模建议
| 模型规模 | 最低显存 | 建议内存 | 适用场景 |
|---|---|---|---|
| 1.5B | 非必需(≥4GB 更佳) | 8GB+(推荐 16GB+) | 轻量问答、短文本 |
| 7B/8B | 8GB+ | 16GB+(推荐 32GB+) | 日常文案、代码辅助 |
| 14B | 12GB+ | 32GB+(推荐 64GB) | 复杂分析、报告生成 |
| 32B | 24GB+ | 64GB+ | 专业领域、高精度任务 |
三、常见安装与运行问题排查
set OLLAMA_HOST=mirror.ollama.ai
再执行 ollama run 命令。
ollama run deepseek-r1:8b
若提示找不到命令,先确认 Ollama 服务已启动(任务栏有图标/命令行能查到版本)。
以上为高频问题,按序排查通常可快速恢复。
四、进阶方案与可视化界面
安装 Python 3.11+,执行:
pip install open-webui
open-webui serve
浏览器访问 http://localhost:8080,在设置里选择 Ollama 与相应模型(如 deepseek-r1:8b)。
适合需要本地推理 + 检索/开发集成的用户,支持从 Hugging Face 拉取模型、4-bit 量化加载、启动 Web UI(如 http://localhost:7860)等。
以上方案可按需选择,Open-WebUI 上手最简单,Cherry Studio 更偏开发集成。
五、离线环境部署要点
ollama run <你的模型名>
离线部署关键在于提前备好安装包与模型文件,并按 Ollama 的模型目录规范放置与导入。