前置条件
- 1已安装 Node.js 22.x 环境
- 2已注册 OpenClaw 并完成初始化配置
- 3已注册 DeepSeek 开放平台账号
如何接入 DeepSeek 到 OpenClaw
DeepSeek(深度求索)是当前最具性价比的国产大模型之一,其 V4 旗舰模型支持百万级上下文窗口,R1 推理模型在数学和代码领域表现卓越。本教程将以零基础视角,手把手教你将 DeepSeek 接入 OpenClaw AI Agent 框架,让你的 AI 助手拥有更强的推理与代码能力。
信息
前置准备
在开始之前,请确保你已经完成以下准备工作:
- 已安装 Node.js 22.x 或更高版本(运行 验证)text
1node --version - 已安装 OpenClaw CLI 工具(运行 验证)text
1openclaw --version - 已注册 DeepSeek 开放平台 账号
- 操作系统为 Windows 10/11、macOS 或 Linux
步骤一:获取 DeepSeek API Key
1.1 注册并登录
- 访问 DeepSeek 开放平台,点击「登录」注册账号
- 支持手机号、邮箱等多种注册方式,无需信用卡即可获得免费额度
1.2 创建 API Key
- 登录后进入控制台,点击左侧菜单 「API keys」
- 点击 「创建 API key」 按钮
- 输入名称(如 ),点击确认text
1openclaw-dev
信息
1.3 了解可用模型
| 模型 ID | 对应版本 | 适用场景 | 上下文长度 | 输入价格 | 输出价格 |
|---|---|---|---|---|---|
text | V4(默认最新) | 通用对话、代码生成、多模态 | 1M tokens | $0.30/M | $0.50/M |
text | V3.2 | 轻量对话、分类摘要(性价比最高) | 128K | $0.28/M | $0.42/M |
text | R1 | 复杂推理、数学证明、代码调试 | 128K | $0.55/M | $2.19/M |
注:缓存命中输入价格低至 $0.028-$0.03/M tokens,适合生产环境。
步骤二:初始化 OpenClaw 配置
如果你还没有初始化过 OpenClaw 配置文件,请执行以下命令:
bash1# 初始化配置文件(会在当前目录生成 config.json) 2openclaw config init
初始化完成后,打开生成的
1config.json步骤三:编写 DeepSeek 模型配置
方案 A:环境变量方式(推荐 ✅)
这是最安全的方式,避免将 API Key 明文写入配置文件:
json1{ 2 "models": [ 3 { 4 "name": "deepseek-chat", 5 "provider": "openai-compatible", 6 "baseURL": "https://api.deepseek.com/v1", 7 "apiKeyEnv": "DEEPSEEK_API_KEY", 8 "maxTokens": 4096, 9 "temperature": 0.7 10 }, 11 { 12 "name": "deepseek-reasoner", 13 "provider": "openai-compatible", 14 "baseURL": "https://api.deepseek.com/v1", 15 "apiKeyEnv": "DEEPSEEK_API_KEY", 16 "maxTokens": 8192, 17 "temperature": 0.7 18 } 19 ], 20 "defaultModel": "deepseek-chat" 21}
然后在终端设置环境变量:
powershell1# PowerShell(临时生效,当前会话有效) 2$env:DEEPSEEK_API_KEY = "sk-你的实际Key" 3 4# 或设置为系统永久环境变量(重启终端后仍有效) 5[System.Environment]::SetEnvironmentVariable("DEEPSEEK_API_KEY", "sk-你的实际Key", "User")
bash1# macOS / Linux(临时生效) 2export DEEPSEEK_API_KEY="sk-你的实际Key" 3 4# 写入 ~/.bashrc 或 ~/.zshrc 永久生效 5echo 'export DEEPSEEK_API_KEY="sk-你的实际Key"' >> ~/.bashrc 6source ~/.bashrc
方案 B:直接填写方式(仅测试用 ⚠️)
信息
json1{ 2 "models": [ 3 { 4 "name": "deepseek-chat", 5 "provider": "openai-compatible", 6 "baseURL": "https://api.deepseek.com/v1", 7 "apiKey": "sk-你的实际Key", 8 "maxTokens": 4096, 9 "temperature": 0.7 10 } 11 ], 12 "defaultModel": "deepseek-chat" 13}
🔧 关键参数说明
| 参数 | 说明 | 推荐值 |
|---|---|---|
text | 模型标识名,可自定义 | text |
text | 固定为 text | 不可更改 |
text | API 地址,必须带 text | text |
text | 环境变量名 | text |
text | 最大输出 Token 数 | 4096(通用)/ 8192(推理) |
text | 创意度(0=确定性强,1=更随机) | 0.7(通用)/ 0.2(代码) |
步骤四:测试验证
4.1 重启 OpenClaw 服务
配置修改完成后,需要重启服务使配置生效:
bash1# 重启 OpenClaw 服务 2openclaw restart
4.2 检查当前模型状态
bash1# 查看当前已加载的模型和默认模型 2openclaw status
预期输出应显示
1deepseek-chat4.3 发送测试消息
在 OpenClaw 的聊天界面中发送一条测试消息:
text1你好,请介绍一下你自己,包括你是什么模型。
如果收到来自 DeepSeek 的回复,恭喜你——接入成功!🎉
4.4 Python 快速验证(可选)
如果你想绕过 OpenClaw 直接验证 API Key 是否有效:
python1from openai import OpenAI 2 3client = OpenAI( 4 api_key="你的DeepSeek API Key", # 替换为实际 Key 5 base_url="https://api.deepseek.com" # 注意:这里不需要 /v1 6) 7 8response = client.chat.completions.create( 9 model="deepseek-chat", 10 messages=[ 11 {"role": "system", "content": "你是一个有用的 AI 助手。"}, 12 {"role": "user", "content": "说一句'Hello, DeepSeek!'"} 13 ], 14 max_tokens=100 15) 16 17print("✅ 连接成功!模型回复:") 18print(response.choices[0].message.content)
运行前确保已安装依赖:
bash1pip install openai 2python test_deepseek.py
场景应用示例
🧩 场景 1:智能编程助手
将
1deepseek-chat效果:
- 自然语言描述需求 → 自动生成代码
- 支持主流编程语言:Python、JavaScript、Java、C# 等
- 可解释复杂算法原理并提供优化建议
🧩 场景 2:深度推理分析
切换到
1deepseek-reasoner使用示例:
text1请帮我分析这段代码的时间复杂度和空间复杂度, 2并给出优化建议: 3[粘贴你的代码]
效果:
- R1 的思维链机制会展示完整的推导过程
- 特别擅长数学计算、逻辑证明、Bug 定位
- 输出质量接近 o1,但成本仅为 1/20
🧩 场景 3:长文档处理
利用 V4 的 1M tokens 上下文窗口:
效果:
- 单次处理数十万字的论文/报告
- 整本书籍的摘要与知识提取
- 大型代码库的全局分析与重构建议
最佳实践
💰 成本优化技巧
-
利用 Prompt 缓存:将 system prompt 和工具定义等固定内容放在消息开头,缓存命中后输入成本降低 90%
-
按需选模:
- 简单问答 → (V3.2/V4)text
1deepseek-chat - 代码生成 → (temperature 设为 0.2)text
1deepseek-chat - 数学/推理 → (R1)text
1deepseek-reasoner
- 简单问答 →
-
控制输出长度:输出 token 通常比输入贵,合理设置
(一般 2048-4096 即够用)text1maxTokens -
错峰调度:北京时间 00:30 - 08:30 为非高峰期,R1 最高享 75% 折扣
🔒 安全建议
- 永远不要将 API Key 提交到 Git 仓库 —— 确保 包含text
1.gitignore和text1.envtext1config.json - 定期轮换 Key —— 在 DeepSeek 控制台定期更新密钥
- 设置用量告警 —— 在开放平台设置预算上限,防止意外超额
- 使用最小权限原则 —— 仅授予必要的 API 权限范围
🐛 故障排查速查表
| 错误码 | 可能原因 | 解决方案 |
|---|---|---|
| 401 Unauthorized | API Key 错误/过期/含空格 | 重新复制 Key,去除首尾空格 |
| 404 Not Found | baseURL 缺少 text | 改为 text |
| 429 Too Many Requests | 触发速率限制 | 降低请求频率,稍后重试 |
| 503 Service Unavailable | 服务器繁忙/维护 | 稍后重试或切换时段 |
| 超时无响应 | 网络问题或 maxTokens 过大 | 检查代理设置,先降 maxTokens 测试 |
| 余额不足 | 免费额度耗尽 | 进入控制台充值或领取新用户礼包 |
扩展与进阶
📚 更多学习资源
| 资源 | 链接 | 说明 | | :--- | :--- | :--- | :--- | | 官方 API 文档 | https://api-docs.deepseek.com | 最权威的接口参考 | | 开放平台控制台 | https://platform.deepseek.com | 管理 Key、查看用量账单 | | 在线聊天体验 | https://chat.deepseek.com | 免费体验 V4 和 R1 模型 | | GitHub 开源仓库 | https://github.com/deepseek-ai | 查看开源模型权重 | | OpenClaw 文档 | https://docs.openclaw.ai | 了解更多高级配置 |
🚀 进阶玩法
- 多模型混合部署:在 中同时配置 DeepSeek + 其他模型,根据任务类型动态切换text
1config.json - 流式输出(Streaming):开启 SSE 流式返回,提升长文本的交互体验
- 工具调用(Function Calling):V4 模型支持精准的工具/函数调用能力,可对接外部 API
- 多模态理解:传入图片 URL 或 Base64,让 V4 进行图像理解和描述
信息
常见问题
QAPI Key 填了但还是报 401 错误?
请检查 Key 是否有多余空格或换行符。建议使用环境变量 apiKeyEnv 而非直接填写 apiKey。确认 Key 未过期且账户余额充足。
Q调用时出现 404 Not Found?
baseURL 必须包含 /v1 后缀,正确格式为 https://api.deepseek.com/v1,遗漏 /v1 是最常见的新手错误。
Q响应很慢或者超时怎么办?
先将 maxTokens 降低到 2048 测试网络连通性;R1 模型因思维链机制本身较慢属正常现象;高峰期可考虑错峰使用享折扣。