🌱入门API集成DeepSeek

如何接入 DeepSeek 到 OpenClaw

零基础教程,手把手教你将 DeepSeek V4/R1 接入 OpenClaw,享受高性价比 AI 编程体验

教程团队
2026-04-16
1 个步骤
#DeepSeek#OpenClaw#大模型#API接入#AI编程助手

前置条件

  • 1已安装 Node.js 22.x 环境
  • 2已注册 OpenClaw 并完成初始化配置
  • 3已注册 DeepSeek 开放平台账号

如何接入 DeepSeek 到 OpenClaw

DeepSeek(深度求索)是当前最具性价比的国产大模型之一,其 V4 旗舰模型支持百万级上下文窗口,R1 推理模型在数学和代码领域表现卓越。本教程将以零基础视角,手把手教你将 DeepSeek 接入 OpenClaw AI Agent 框架,让你的 AI 助手拥有更强的推理与代码能力。

信息

,[object Object], ,[object Object],

前置准备

在开始之前,请确保你已经完成以下准备工作:

  • 已安装 Node.js 22.x 或更高版本(运行
    text
    1node --version
    验证)
  • 已安装 OpenClaw CLI 工具(运行
    text
    1openclaw --version
    验证)
  • 已注册 DeepSeek 开放平台 账号
  • 操作系统为 Windows 10/11、macOS 或 Linux

步骤一:获取 DeepSeek API Key

1.1 注册并登录

  1. 访问 DeepSeek 开放平台,点击「登录」注册账号
  2. 支持手机号、邮箱等多种注册方式,无需信用卡即可获得免费额度

1.2 创建 API Key

  1. 登录后进入控制台,点击左侧菜单 「API keys」
  2. 点击 「创建 API key」 按钮
  3. 输入名称(如
    text
    1openclaw-dev
    ),点击确认

信息

,[object Object],

1.3 了解可用模型

模型 ID对应版本适用场景上下文长度输入价格输出价格
text
1deepseek-chat
V4(默认最新)通用对话、代码生成、多模态1M tokens$0.30/M$0.50/M
text
1deepseek-chat
V3.2轻量对话、分类摘要(性价比最高)128K$0.28/M$0.42/M
text
1deepseek-reasoner
R1复杂推理、数学证明、代码调试128K$0.55/M$2.19/M

注:缓存命中输入价格低至 $0.028-$0.03/M tokens,适合生产环境。


步骤二:初始化 OpenClaw 配置

如果你还没有初始化过 OpenClaw 配置文件,请执行以下命令:

bash
1# 初始化配置文件(会在当前目录生成 config.json)
2openclaw config init

初始化完成后,打开生成的

text
1config.json
文件,我们将添加 DeepSeek 模型配置。


步骤三:编写 DeepSeek 模型配置

方案 A:环境变量方式(推荐 ✅)

这是最安全的方式,避免将 API Key 明文写入配置文件:

json
1{
2  "models": [
3    {
4      "name": "deepseek-chat",
5      "provider": "openai-compatible",
6      "baseURL": "https://api.deepseek.com/v1",
7      "apiKeyEnv": "DEEPSEEK_API_KEY",
8      "maxTokens": 4096,
9      "temperature": 0.7
10    },
11    {
12      "name": "deepseek-reasoner",
13      "provider": "openai-compatible",
14      "baseURL": "https://api.deepseek.com/v1",
15      "apiKeyEnv": "DEEPSEEK_API_KEY",
16      "maxTokens": 8192,
17      "temperature": 0.7
18    }
19  ],
20  "defaultModel": "deepseek-chat"
21}

然后在终端设置环境变量:

powershell
1# PowerShell(临时生效,当前会话有效)
2$env:DEEPSEEK_API_KEY = "sk-你的实际Key"
3
4# 或设置为系统永久环境变量(重启终端后仍有效)
5[System.Environment]::SetEnvironmentVariable("DEEPSEEK_API_KEY", "sk-你的实际Key", "User")
bash
1# macOS / Linux(临时生效)
2export DEEPSEEK_API_KEY="sk-你的实际Key"
3
4# 写入 ~/.bashrc 或 ~/.zshrc 永久生效
5echo 'export DEEPSEEK_API_KEY="sk-你的实际Key"' >> ~/.bashrc
6source ~/.bashrc

方案 B:直接填写方式(仅测试用 ⚠️)

信息

,[object Object],
json
1{
2  "models": [
3    {
4      "name": "deepseek-chat",
5      "provider": "openai-compatible",
6      "baseURL": "https://api.deepseek.com/v1",
7      "apiKey": "sk-你的实际Key",
8      "maxTokens": 4096,
9      "temperature": 0.7
10    }
11  ],
12  "defaultModel": "deepseek-chat"
13}

🔧 关键参数说明

参数说明推荐值
text
1name
模型标识名,可自定义
text
1deepseek-chat
text
1provider
固定为
text
1openai-compatible
不可更改
text
1baseURL
API 地址,必须带
text
1/v1
text
1https://api.deepseek.com/v1
text
1apiKeyEnv
环境变量名
text
1DEEPSEEK_API_KEY
text
1maxTokens
最大输出 Token 数4096(通用)/ 8192(推理)
text
1temperature
创意度(0=确定性强,1=更随机)0.7(通用)/ 0.2(代码)

步骤四:测试验证

4.1 重启 OpenClaw 服务

配置修改完成后,需要重启服务使配置生效:

bash
1# 重启 OpenClaw 服务
2openclaw restart

4.2 检查当前模型状态

bash
1# 查看当前已加载的模型和默认模型
2openclaw status

预期输出应显示

text
1deepseek-chat
为默认模型。

4.3 发送测试消息

在 OpenClaw 的聊天界面中发送一条测试消息:

text
1你好,请介绍一下你自己,包括你是什么模型。

如果收到来自 DeepSeek 的回复,恭喜你——接入成功!🎉

4.4 Python 快速验证(可选)

如果你想绕过 OpenClaw 直接验证 API Key 是否有效:

python
1from openai import OpenAI
2
3client = OpenAI(
4    api_key="你的DeepSeek API Key",   # 替换为实际 Key
5    base_url="https://api.deepseek.com"  # 注意:这里不需要 /v1
6)
7
8response = client.chat.completions.create(
9    model="deepseek-chat",
10    messages=[
11        {"role": "system", "content": "你是一个有用的 AI 助手。"},
12        {"role": "user", "content": "说一句'Hello, DeepSeek!'"}
13    ],
14    max_tokens=100
15)
16
17print("✅ 连接成功!模型回复:")
18print(response.choices[0].message.content)

运行前确保已安装依赖:

bash
1pip install openai
2python test_deepseek.py

场景应用示例

🧩 场景 1:智能编程助手

text
1deepseek-chat
设为默认模型,配合 OpenClaw 的代码执行插件:

效果

  • 自然语言描述需求 → 自动生成代码
  • 支持主流编程语言:Python、JavaScript、Java、C# 等
  • 可解释复杂算法原理并提供优化建议

🧩 场景 2:深度推理分析

切换到

text
1deepseek-reasoner
模型处理需要逻辑推理的任务:

使用示例

text
1请帮我分析这段代码的时间复杂度和空间复杂度,
2并给出优化建议:
3[粘贴你的代码]

效果

  • R1 的思维链机制会展示完整的推导过程
  • 特别擅长数学计算、逻辑证明、Bug 定位
  • 输出质量接近 o1,但成本仅为 1/20

🧩 场景 3:长文档处理

利用 V4 的 1M tokens 上下文窗口:

效果

  • 单次处理数十万字的论文/报告
  • 整本书籍的摘要与知识提取
  • 大型代码库的全局分析与重构建议

最佳实践

💰 成本优化技巧

  1. 利用 Prompt 缓存:将 system prompt 和工具定义等固定内容放在消息开头,缓存命中后输入成本降低 90%

  2. 按需选模

    • 简单问答 →
      text
      1deepseek-chat
      (V3.2/V4)
    • 代码生成 →
      text
      1deepseek-chat
      (temperature 设为 0.2)
    • 数学/推理 →
      text
      1deepseek-reasoner
      (R1)
  3. 控制输出长度:输出 token 通常比输入贵,合理设置

    text
    1maxTokens
    (一般 2048-4096 即够用)

  4. 错峰调度:北京时间 00:30 - 08:30 为非高峰期,R1 最高享 75% 折扣

🔒 安全建议

  1. 永远不要将 API Key 提交到 Git 仓库 —— 确保
    text
    1.gitignore
    包含
    text
    1.env
    text
    1config.json
  2. 定期轮换 Key —— 在 DeepSeek 控制台定期更新密钥
  3. 设置用量告警 —— 在开放平台设置预算上限,防止意外超额
  4. 使用最小权限原则 —— 仅授予必要的 API 权限范围

🐛 故障排查速查表

错误码可能原因解决方案
401 UnauthorizedAPI Key 错误/过期/含空格重新复制 Key,去除首尾空格
404 Not FoundbaseURL 缺少
text
1/v1
改为
text
1https://api.deepseek.com/v1
429 Too Many Requests触发速率限制降低请求频率,稍后重试
503 Service Unavailable服务器繁忙/维护稍后重试或切换时段
超时无响应网络问题或 maxTokens 过大检查代理设置,先降 maxTokens 测试
余额不足免费额度耗尽进入控制台充值或领取新用户礼包

扩展与进阶

📚 更多学习资源

| 资源 | 链接 | 说明 | | :--- | :--- | :--- | :--- | | 官方 API 文档 | https://api-docs.deepseek.com | 最权威的接口参考 | | 开放平台控制台 | https://platform.deepseek.com | 管理 Key、查看用量账单 | | 在线聊天体验 | https://chat.deepseek.com | 免费体验 V4 和 R1 模型 | | GitHub 开源仓库 | https://github.com/deepseek-ai | 查看开源模型权重 | | OpenClaw 文档 | https://docs.openclaw.ai | 了解更多高级配置 |

🚀 进阶玩法

  • 多模型混合部署:在
    text
    1config.json
    中同时配置 DeepSeek + 其他模型,根据任务类型动态切换
  • 流式输出(Streaming):开启 SSE 流式返回,提升长文本的交互体验
  • 工具调用(Function Calling):V4 模型支持精准的工具/函数调用能力,可对接外部 API
  • 多模态理解:传入图片 URL 或 Base64,让 V4 进行图像理解和描述

信息

,[object Object],

常见问题

QAPI Key 填了但还是报 401 错误?

请检查 Key 是否有多余空格或换行符。建议使用环境变量 apiKeyEnv 而非直接填写 apiKey。确认 Key 未过期且账户余额充足。

Q调用时出现 404 Not Found?

baseURL 必须包含 /v1 后缀,正确格式为 https://api.deepseek.com/v1,遗漏 /v1 是最常见的新手错误。

Q响应很慢或者超时怎么办?

先将 maxTokens 降低到 2048 测试网络连通性;R1 模型因思维链机制本身较慢属正常现象;高峰期可考虑错峰使用享折扣。