如何在 Cline 中调用 DeepSeek V4 Pro

使用 OpenAI Compatible Provider 在 Cline 中接入 DeepSeek V4 Pro,包括 API Key、Base URL、模型名、上下文长度和常见排错。

Cline 本身已经支持 OpenAI Compatible Provider。 DeepSeek API 也兼容 OpenAI SDK 风格的调用方式,所以把 deepseek-v4-pro 接到 Cline 里并不复杂:选 OpenAI Compatible,填 DeepSeek 的 Base URL、API Key 和模型名即可。

下面按 VS Code 插件界面和 Cline CLI 两种方式整理。

准备 DeepSeek API Key

先到 DeepSeek 开放平台创建 API Key。

需要准备三个值:

项目 填写内容
Provider OpenAI Compatible
Base URL https://api.deepseek.com
Model ID deepseek-v4-pro

DeepSeek 官方文档说明,V4 系列使用现有 OpenAI 兼容接口,base_url 保持为 https://api.deepseek.com,调用时把 model 设置为 deepseek-v4-prodeepseek-v4-flash

在 Cline 插件里配置

如果你用的是 VS Code 里的 Cline 插件,可以按这个路径配置:

  1. 打开 VS Code 侧边栏里的 Cline。
  2. 进入 Cline 的设置或模型配置页面。
  3. Provider 选择 OpenAI Compatible
  4. API Key 填入 DeepSeek API Key。
  5. Base URL 填:
1
https://api.deepseek.com
  1. Model ID 填:
1
deepseek-v4-pro
  1. 保存配置,回到 Cline 对话框测试一次简单任务。

可以先让 Cline 做一个低风险测试:

1
请读取当前项目目录结构,并总结这个项目是什么类型,不要修改任何文件。

如果能正常读取和回答,说明模型链路已经通了。

在 Cline CLI 中配置

如果你使用 Cline CLI,可以用 cline provider configure openai-compatible 进入交互式配置。

示例:

1
cline provider configure openai-compatible

交互时填写:

1
2
3
API Key: sk-...
Base URL: https://api.deepseek.com
Model ID: deepseek-v4-pro

配置完成后,可以用一个只读任务测试:

1
cline "Summarize this repository structure without changing files."

如果你希望先降低成本,也可以把 Model ID 临时改成:

1
deepseek-v4-flash

等遇到复杂规划、事实核查、多工具协作或高风险代码修改时,再切回 deepseek-v4-pro

推荐的模型分工

DeepSeek V4 Pro 和 Flash 更适合分工使用。

模型 适合场景
deepseek-v4-flash 日常代码阅读、批量改小问题、生成脚本、整理上下文、低风险前端修改
deepseek-v4-pro 架构规划、复杂 bug、跨文件重构、事实核查、多工具调用、高风险改动

对 Cline 这类 Agent 工具来说,成本主要来自长上下文、反复读文件、生成计划和多轮工具调用。 如果任务很轻,可以先用 Flash 跑量;如果任务需要更强判断,再切 Pro。

上下文长度怎么填

DeepSeek V4 Pro 和 Flash 都支持很长上下文。 在 Cline 里如果需要手动填写 context window,可以按 DeepSeek 官方模型页给出的 1M 上下文来理解。

实际使用时不建议一开始就把所有文件都塞进上下文。 Cline 会按任务读取文件,通常更好的方式是:

  • 先让它看目录结构;
  • 再让它定位相关文件;
  • 最后只围绕目标文件执行修改。

这样更省 Token,也更容易保持任务边界清晰。

常见问题

1. 提示模型不存在

先检查 Model ID 是否写成:

1
deepseek-v4-pro

不要写成 DeepSeek V4 Prodeepseek-v4 或其他显示名称。

2. 提示 401 或认证失败

检查 API Key:

  • 是否复制完整;
  • 是否带了多余空格;
  • 是否填到了 Cline 当前正在使用的 provider 配置里;
  • DeepSeek 账户是否有可用额度。

3. 提示连接失败

检查 Base URL:

1
https://api.deepseek.com

不要在末尾额外拼 /v1/chat/completions。 Cline 的 OpenAI Compatible Provider 会自己按兼容接口组织请求。

4. Cline 调用很贵怎么办

可以先把日常任务切到 deepseek-v4-flash,只在复杂任务里使用 deepseek-v4-pro

另外,尽量把任务描述写清楚:

1
只修改登录页相关文件,不要重构无关模块。先给出计划,确认后再改代码。

Agent 任务最怕边界不清。 边界越清楚,读文件越少,工具调用越少,成本也越可控。

5. 报错 reasoning_content must be passed back

如果你看到类似错误:

1
2
3
4
5
{
  "message": "400 The `reasoning_content` in the thinking mode must be passed back to the API.",
  "code": "invalid_request_error",
  "modelId": "deepseek-v4-pro"
}

这通常不是 Key、额度或 Base URL 的问题,而是 DeepSeek V4 Pro 的 thinking mode 和当前客户端的多轮工具调用记录没有对齐。

DeepSeek 官方文档说明:

  • thinking mode 默认是 enabled
  • thinking mode 下会返回 reasoning_content
  • 如果某一轮发生了 tool call,后续请求必须把该轮 assistant message 里的 reasoning_content 一起传回 API;
  • 如果客户端没有正确回传,就会返回 400。

Cline 通过 OpenAI Compatible Provider 接入时,如果当前版本没有完整保留并回传 DeepSeek 的 reasoning_content,就可能在第二轮或工具调用后触发这个错误。

可尝试的处理顺序:

  1. 先升级 Cline 到最新版;
  2. 确认使用的是 OpenAI Compatible,而不是普通 OpenAI provider;
  3. 如果 Cline 支持自定义 request body,尝试关闭 thinking mode:
1
2
3
4
5
{
  "thinking": {
    "type": "disabled"
  }
}
  1. 如果 Cline 不支持额外 body 参数,暂时改用不触发该问题的模型或服务中转;
  2. 等 Cline 适配 DeepSeek V4 的 reasoning_content 回传后,再切回 deepseek-v4-pro

需要注意:关闭 thinking mode 会牺牲一部分复杂推理能力,但可以绕开客户端没有回传 reasoning_content 的兼容性问题。

一个可直接复制的配置清单

1
2
3
4
Provider: OpenAI Compatible
API Key: sk-你的 DeepSeek API Key
Base URL: https://api.deepseek.com
Model ID: deepseek-v4-pro

如果要低成本模式:

1
2
3
4
Provider: OpenAI Compatible
API Key: sk-你的 DeepSeek API Key
Base URL: https://api.deepseek.com
Model ID: deepseek-v4-flash

小结

在 Cline 中调用 DeepSeek V4 Pro 的关键只有三步:

  1. Provider 选择 OpenAI Compatible
  2. Base URL 填 https://api.deepseek.com
  3. Model ID 填 deepseek-v4-pro

配置完成后,建议先用只读任务测试,再逐步交给它执行真实代码修改。 如果你经常跑 Agent 任务,可以把 Flash 和 Pro 分开用:Flash 负责高频轻量任务,Pro 负责复杂判断和兜底。

参考来源:

记录并分享
使用 Hugo 构建
主题 StackJimmy 设计