Cline 本身已经支持 OpenAI Compatible Provider。
DeepSeek API 也兼容 OpenAI SDK 风格的调用方式,所以把 deepseek-v4-pro 接到 Cline 里并不复杂:选 OpenAI Compatible,填 DeepSeek 的 Base URL、API Key 和模型名即可。
下面按 VS Code 插件界面和 Cline CLI 两种方式整理。
准备 DeepSeek API Key
先到 DeepSeek 开放平台创建 API Key。
需要准备三个值:
| 项目 | 填写内容 |
|---|---|
| Provider | OpenAI Compatible |
| Base URL | https://api.deepseek.com |
| Model ID | deepseek-v4-pro |
DeepSeek 官方文档说明,V4 系列使用现有 OpenAI 兼容接口,base_url 保持为 https://api.deepseek.com,调用时把 model 设置为 deepseek-v4-pro 或 deepseek-v4-flash。
在 Cline 插件里配置
如果你用的是 VS Code 里的 Cline 插件,可以按这个路径配置:
- 打开 VS Code 侧边栏里的 Cline。
- 进入 Cline 的设置或模型配置页面。
- Provider 选择
OpenAI Compatible。 - API Key 填入 DeepSeek API Key。
- Base URL 填:
|
|
- Model ID 填:
|
|
- 保存配置,回到 Cline 对话框测试一次简单任务。
可以先让 Cline 做一个低风险测试:
|
|
如果能正常读取和回答,说明模型链路已经通了。
在 Cline CLI 中配置
如果你使用 Cline CLI,可以用 cline provider configure openai-compatible 进入交互式配置。
示例:
|
|
交互时填写:
|
|
配置完成后,可以用一个只读任务测试:
|
|
如果你希望先降低成本,也可以把 Model ID 临时改成:
|
|
等遇到复杂规划、事实核查、多工具协作或高风险代码修改时,再切回 deepseek-v4-pro。
推荐的模型分工
DeepSeek V4 Pro 和 Flash 更适合分工使用。
| 模型 | 适合场景 |
|---|---|
deepseek-v4-flash |
日常代码阅读、批量改小问题、生成脚本、整理上下文、低风险前端修改 |
deepseek-v4-pro |
架构规划、复杂 bug、跨文件重构、事实核查、多工具调用、高风险改动 |
对 Cline 这类 Agent 工具来说,成本主要来自长上下文、反复读文件、生成计划和多轮工具调用。 如果任务很轻,可以先用 Flash 跑量;如果任务需要更强判断,再切 Pro。
上下文长度怎么填
DeepSeek V4 Pro 和 Flash 都支持很长上下文。 在 Cline 里如果需要手动填写 context window,可以按 DeepSeek 官方模型页给出的 1M 上下文来理解。
实际使用时不建议一开始就把所有文件都塞进上下文。 Cline 会按任务读取文件,通常更好的方式是:
- 先让它看目录结构;
- 再让它定位相关文件;
- 最后只围绕目标文件执行修改。
这样更省 Token,也更容易保持任务边界清晰。
常见问题
1. 提示模型不存在
先检查 Model ID 是否写成:
|
|
不要写成 DeepSeek V4 Pro、deepseek-v4 或其他显示名称。
2. 提示 401 或认证失败
检查 API Key:
- 是否复制完整;
- 是否带了多余空格;
- 是否填到了 Cline 当前正在使用的 provider 配置里;
- DeepSeek 账户是否有可用额度。
3. 提示连接失败
检查 Base URL:
|
|
不要在末尾额外拼 /v1/chat/completions。
Cline 的 OpenAI Compatible Provider 会自己按兼容接口组织请求。
4. Cline 调用很贵怎么办
可以先把日常任务切到 deepseek-v4-flash,只在复杂任务里使用 deepseek-v4-pro。
另外,尽量把任务描述写清楚:
|
|
Agent 任务最怕边界不清。 边界越清楚,读文件越少,工具调用越少,成本也越可控。
5. 报错 reasoning_content must be passed back
如果你看到类似错误:
|
|
这通常不是 Key、额度或 Base URL 的问题,而是 DeepSeek V4 Pro 的 thinking mode 和当前客户端的多轮工具调用记录没有对齐。
DeepSeek 官方文档说明:
- thinking mode 默认是
enabled; - thinking mode 下会返回
reasoning_content; - 如果某一轮发生了 tool call,后续请求必须把该轮 assistant message 里的
reasoning_content一起传回 API; - 如果客户端没有正确回传,就会返回 400。
Cline 通过 OpenAI Compatible Provider 接入时,如果当前版本没有完整保留并回传 DeepSeek 的 reasoning_content,就可能在第二轮或工具调用后触发这个错误。
可尝试的处理顺序:
- 先升级 Cline 到最新版;
- 确认使用的是
OpenAI Compatible,而不是普通OpenAIprovider; - 如果 Cline 支持自定义 request body,尝试关闭 thinking mode:
|
|
- 如果 Cline 不支持额外 body 参数,暂时改用不触发该问题的模型或服务中转;
- 等 Cline 适配 DeepSeek V4 的
reasoning_content回传后,再切回deepseek-v4-pro。
需要注意:关闭 thinking mode 会牺牲一部分复杂推理能力,但可以绕开客户端没有回传 reasoning_content 的兼容性问题。
一个可直接复制的配置清单
|
|
如果要低成本模式:
|
|
小结
在 Cline 中调用 DeepSeek V4 Pro 的关键只有三步:
- Provider 选择
OpenAI Compatible; - Base URL 填
https://api.deepseek.com; - Model ID 填
deepseek-v4-pro。
配置完成后,建议先用只读任务测试,再逐步交给它执行真实代码修改。 如果你经常跑 Agent 任务,可以把 Flash 和 Pro 分开用:Flash 负责高频轻量任务,Pro 负责复杂判断和兜底。
参考来源: