Cline 本身已經支援 OpenAI Compatible Provider。
DeepSeek API 也相容 OpenAI SDK 風格的呼叫方式,所以把 deepseek-v4-pro 接到 Cline 裡並不複雜:選 OpenAI Compatible,填 DeepSeek 的 Base URL、API Key 和模型名即可。
下面按 VS Code 外掛介面和 Cline CLI 兩種方式整理。
準備 DeepSeek API Key
先到 DeepSeek 開放平台建立 API Key。
需要準備三個值:
| 項目 | 填寫內容 |
|---|---|
| Provider | OpenAI Compatible |
| Base URL | https://api.deepseek.com |
| Model ID | deepseek-v4-pro |
DeepSeek 官方文件說明,V4 系列使用既有 OpenAI 相容介面,base_url 保持為 https://api.deepseek.com,呼叫時把 model 設定為 deepseek-v4-pro 或 deepseek-v4-flash。
在 Cline 外掛裡設定
如果你用的是 VS Code 裡的 Cline 外掛,可以按這個路徑設定:
- 打開 VS Code 側邊欄裡的 Cline。
- 進入 Cline 的設定或模型設定頁面。
- Provider 選擇
OpenAI Compatible。 - API Key 填入 DeepSeek API Key。
- Base URL 填:
|
|
- Model ID 填:
|
|
- 儲存設定,回到 Cline 對話框測試一次簡單任務。
可以先讓 Cline 做一個低風險測試:
|
|
如果能正常讀取和回答,說明模型鏈路已經通了。
在 Cline CLI 中設定
如果你使用 Cline CLI,可以用 cline provider configure openai-compatible 進入互動式設定。
範例:
|
|
互動時填寫:
|
|
設定完成後,可以用一個只讀任務測試:
|
|
如果你希望先降低成本,也可以把 Model ID 臨時改成:
|
|
等遇到複雜規劃、事實核查、多工具協作或高風險程式碼修改時,再切回 deepseek-v4-pro。
推薦的模型分工
DeepSeek V4 Pro 和 Flash 更適合分工使用。
| 模型 | 適合場景 |
|---|---|
deepseek-v4-flash |
日常程式碼閱讀、批量改小問題、生成腳本、整理上下文、低風險前端修改 |
deepseek-v4-pro |
架構規劃、複雜 bug、跨檔案重構、事實核查、多工具呼叫、高風險改動 |
對 Cline 這類 Agent 工具來說,成本主要來自長上下文、反覆讀檔案、生成計畫和多輪工具呼叫。 如果任務很輕,可以先用 Flash 跑量;如果任務需要更強判斷,再切 Pro。
上下文長度怎麼填
DeepSeek V4 Pro 和 Flash 都支援很長上下文。 在 Cline 裡如果需要手動填寫 context window,可以按 DeepSeek 官方模型頁給出的 1M 上下文來理解。
實際使用時不建議一開始就把所有檔案都塞進上下文。 Cline 會按任務讀取檔案,通常更好的方式是:
- 先讓它看目錄結構;
- 再讓它定位相關檔案;
- 最後只圍繞目標檔案執行修改。
這樣更省 Token,也更容易保持任務邊界清晰。
常見問題
1. 提示模型不存在
先檢查 Model ID 是否寫成:
|
|
不要寫成 DeepSeek V4 Pro、deepseek-v4 或其他顯示名稱。
2. 提示 401 或認證失敗
檢查 API Key:
- 是否複製完整;
- 是否帶了多餘空格;
- 是否填到了 Cline 目前正在使用的 provider 設定裡;
- DeepSeek 帳戶是否有可用額度。
3. 提示連線失敗
檢查 Base URL:
|
|
不要在末尾額外拼 /v1/chat/completions。
Cline 的 OpenAI Compatible Provider 會自己按相容介面組織請求。
4. Cline 呼叫很貴怎麼辦
可以先把日常任務切到 deepseek-v4-flash,只在複雜任務裡使用 deepseek-v4-pro。
另外,盡量把任務描述寫清楚:
|
|
Agent 任務最怕邊界不清。 邊界越清楚,讀檔案越少,工具呼叫越少,成本也越可控。
5. 報錯 reasoning_content must be passed back
如果你看到類似錯誤:
|
|
這通常不是 Key、額度或 Base URL 的問題,而是 DeepSeek V4 Pro 的 thinking mode 和目前客戶端的多輪工具呼叫記錄沒有對齊。
DeepSeek 官方文件說明:
- thinking mode 預設是
enabled; - thinking mode 下會返回
reasoning_content; - 如果某一輪發生了 tool call,後續請求必須把該輪 assistant message 裡的
reasoning_content一起傳回 API; - 如果客戶端沒有正確回傳,就會返回 400。
Cline 透過 OpenAI Compatible Provider 接入時,如果目前版本沒有完整保留並回傳 DeepSeek 的 reasoning_content,就可能在第二輪或工具呼叫後觸發這個錯誤。
可嘗試的處理順序:
- 先升級 Cline 到最新版;
- 確認使用的是
OpenAI Compatible,而不是普通OpenAIprovider; - 如果 Cline 支援自訂 request body,嘗試關閉 thinking mode:
|
|
- 如果 Cline 不支援額外 body 參數,暫時改用不觸發該問題的模型或服務中轉;
- 等 Cline 適配 DeepSeek V4 的
reasoning_content回傳後,再切回deepseek-v4-pro。
需要注意:關閉 thinking mode 會犧牲一部分複雜推理能力,但可以繞開客戶端沒有回傳 reasoning_content 的相容性問題。
一個可直接複製的設定清單
|
|
如果要低成本模式:
|
|
小結
在 Cline 中呼叫 DeepSeek V4 Pro 的關鍵只有三步:
- Provider 選擇
OpenAI Compatible; - Base URL 填
https://api.deepseek.com; - Model ID 填
deepseek-v4-pro。
設定完成後,建議先用只讀任務測試,再逐步交給它執行真實程式碼修改。 如果你經常跑 Agent 任務,可以把 Flash 和 Pro 分開用:Flash 負責高頻輕量任務,Pro 負責複雜判斷和兜底。
參考來源: