DeepSeekR1安装后如何验证

AI技术
小华
2026-01-03

DeepSeek R1 安装后的验证步骤
一 快速自检清单

  • 确认运行环境已就绪:命令行可调用 Ollama,服务已启动,并能拉取与运行模型。
  • 核对模型是否就绪:本地模型列表中存在 deepseek-r1(含具体标签如 :1.5b、:7b)。
  • 做一次端到端对话测试:能正常接收问题并输出完整答案(如代码、推理过程)。
  • 可选:用 /api/tags 接口或图形化客户端(如 Chatbox、Page Assist)验证连通性与可用性。

二 按部署方式的验证步骤

  • Ollama 本地部署

1) 检查版本与服务:运行 ollama --version;在 Linux/macOS 可执行 sudo systemctl status ollama 查看服务是否 active。
2) 列出本地模型:运行 ollama list,应看到 deepseek-r1(或带标签的 deepseek-r1:1.5b、deepseek-r1:7b 等)。
3) 运行一次对话:执行 ollama run deepseek-r1,出现交互提示符后输入“请用Python写一个快速排序算法”,应返回完整可运行代码。
4) 可选 API 验证:浏览器访问 http://localhost:11434/api/tags,返回的 JSON 中应包含 deepseek-r1 的模型信息。
5) 可选 UI 验证:在 ChatboxPage Assist 中将 API 指向 http://127.0.0.1:11434,发起对话测试。

  • Python 源码/包安装

1) 模块导入与版本:运行 python -c "import deepseek_r1; print(deepseek_r1.__version__)",应输出版本号。
2) 最小推理测试:

  • from deepseek_r1 import DeepSeekR1
  • model = DeepSeekR1.from_pretrained('deepseek-r1-base')
  • print(model.generate("用一句话介绍你自己", max_length=50))

若正常打印生成文本,说明安装与推理链路正常。
三 预期结果与示例

  • 命令行输出示例:执行 ollama run deepseek-r1 后应看到拉取进度与 “success”,随后进入交互界面;输入“请用Python写一个快速排序算法”,应返回类似:

def quicksort(arr):
if len(arr) <= 1: return arr
pivot = arr[len(arr)//2]
left = [x for x in arr if x < pivot]
middle = [x for x in arr if x == pivot]
right = [x for x in arr if x > pivot]
return quicksort(left) + middle + quicksort(right)

  • API 输出示例:访问 http://localhost:11434/api/tags 应返回 JSON,包含类似:

{ "models": [ { "name": "deepseek-r1", "modified_at": "...", "size": ... }, ... ] }

  • 源码导入示例:执行版本打印命令应输出版本字符串,最小推理示例应返回非空文本。

四 常见异常与排查

  • 命令未找到或无法连接服务:确认 Ollama 已安装并在 PATH 中;Linux/macOS 可用 sudo systemctl start ollama 启动服务;必要时重装并勾选“Add Ollama to PATH”。
  • 模型未就绪或拉取缓慢:执行 ollama list 确认是否已存在目标标签(如 :1.5b、:7b);网络慢可更换网络或在稳定带宽环境下重试。
  • GPU/显存问题:显存不足会导致加载失败或自动降级;可改用更小的标签(如 :1.5b),或关闭占用显存的后台程序。
  • Python 包导入失败:确认已安装对应包(如 deepseek_r1),并使用与安装时一致的 Python 与虚拟环境。
亿速云提供售前/售后服务

售前业务咨询

售后技术保障

400-100-2938

7*24小时售后电话

官方微信小程序