Cline で DeepSeek V4 Pro を呼び出す方法

OpenAI Compatible Provider を使って Cline に DeepSeek V4 Pro を接続する方法。API Key、Base URL、モデル名、コンテキスト長、よくあるトラブルを整理する。

Cline はすでに OpenAI Compatible Provider をサポートしています。 DeepSeek API も OpenAI SDK 風の呼び出しに対応しているため、deepseek-v4-pro を Cline に接続するのは難しくありません。OpenAI Compatible を選び、DeepSeek の Base URL、API Key、モデル名を入力すればよいだけです。

以下では、VS Code 拡張機能の画面と Cline CLI の 2 通りで整理します。

DeepSeek API Key を準備する

まず DeepSeek の開放プラットフォームで API Key を作成します。

必要な値は 3 つです。

項目 入力内容
Provider OpenAI Compatible
Base URL https://api.deepseek.com
Model ID deepseek-v4-pro

DeepSeek の公式ドキュメントでは、V4 シリーズは既存の OpenAI 互換インターフェースを使い、base_urlhttps://api.deepseek.com のまま、呼び出し時に modeldeepseek-v4-pro または deepseek-v4-flash に設定すると説明されています。

Cline 拡張機能で設定する

VS Code の Cline 拡張機能を使っている場合は、次の手順で設定できます。

  1. VS Code サイドバーの Cline を開く。
  2. Cline の設定またはモデル設定ページに入る。
  3. Provider で OpenAI Compatible を選ぶ。
  4. API Key に DeepSeek API Key を入力する。
  5. Base URL に次を入力する。
1
https://api.deepseek.com
  1. Model ID に次を入力する。
1
deepseek-v4-pro
  1. 設定を保存し、Cline のチャット画面に戻って簡単なタスクでテストする。

まずは低リスクな読み取り専用タスクを試すとよいです。

1
現在のプロジェクトのディレクトリ構造を読み取り、このプロジェクトがどの種類のものか要約してください。ファイルは一切変更しないでください。

正常に読み取りと回答ができれば、モデルの接続は通っています。

Cline CLI で設定する

Cline CLI を使う場合は、cline provider configure openai-compatible で対話式設定に入れます。

例:

1
cline provider configure openai-compatible

対話中に次を入力します。

1
2
3
API Key: sk-...
Base URL: https://api.deepseek.com
Model ID: deepseek-v4-pro

設定後、読み取り専用タスクでテストできます。

1
cline "Summarize this repository structure without changing files."

まずコストを下げたい場合は、Model ID を一時的に次へ変更してもよいです。

1
deepseek-v4-flash

複雑な計画、事実確認、複数ツールの協調、高リスクなコード変更が必要になったら、deepseek-v4-pro に戻します。

推奨するモデルの使い分け

DeepSeek V4 Pro と Flash は、役割を分けて使うほうが向いています。

モデル 向いている場面
deepseek-v4-flash 日常的なコード読解、小さな修正の一括処理、スクリプト生成、コンテキスト整理、低リスクなフロントエンド修正
deepseek-v4-pro アーキテクチャ設計、複雑な bug、複数ファイルのリファクタリング、事実確認、複数ツール呼び出し、高リスクな変更

Cline のような Agent ツールでは、主なコストは長いコンテキスト、繰り返しのファイル読み取り、計画生成、複数ラウンドのツール呼び出しから発生します。 軽いタスクなら Flash で量をこなし、より強い判断が必要なときに Pro へ切り替えるのが現実的です。

コンテキスト長はどう設定するか

DeepSeek V4 Pro と Flash はどちらも長いコンテキストをサポートします。 Cline で context window を手動入力する必要がある場合は、DeepSeek 公式モデルページにある 1M コンテキストを目安にできます。

実際には、最初からすべてのファイルをコンテキストに入れることはおすすめしません。 Cline はタスクに応じてファイルを読み取るため、通常は次の流れがよいです。

  • まずディレクトリ構造を確認させる;
  • 次に関連ファイルを特定させる;
  • 最後に対象ファイルだけを中心に修正させる。

このほうが Token を節約でき、タスクの境界も明確に保ちやすくなります。

よくある問題

1. モデルが存在しないと表示される

まず Model ID が次のように書かれているか確認します。

1
deepseek-v4-pro

DeepSeek V4 Prodeepseek-v4、その他の表示名を書かないでください。

2. 401 または認証失敗が出る

API Key を確認します。

  • 完全にコピーできているか;
  • 余計な空白が入っていないか;
  • Cline が現在使っている provider 設定に入力されているか;
  • DeepSeek アカウントに利用可能な残高があるか。

3. 接続失敗と表示される

Base URL を確認します。

1
https://api.deepseek.com

末尾に /v1/chat/completions を追加しないでください。 Cline の OpenAI Compatible Provider が互換インターフェースのリクエストを自分で組み立てます。

4. Cline の呼び出しが高くつく

日常タスクは deepseek-v4-flash に切り替え、複雑なタスクだけ deepseek-v4-pro を使うとよいです。

また、タスク説明はできるだけ明確に書きます。

1
ログインページ関連ファイルだけを修正してください。無関係なモジュールはリファクタリングしないでください。まず計画を提示し、確認後にコードを変更してください。

Agent タスクで最も危ないのは境界が曖昧なことです。 境界が明確なほど、読むファイルが少なくなり、ツール呼び出しも減り、コストを制御しやすくなります。

5. reasoning_content must be passed back エラー

次のようなエラーが出る場合があります。

1
2
3
4
5
{
  "message": "400 The `reasoning_content` in the thinking mode must be passed back to the API.",
  "code": "invalid_request_error",
  "modelId": "deepseek-v4-pro"
}

これは通常、Key、残高、Base URL の問題ではありません。DeepSeek V4 Pro の thinking mode と、現在のクライアント側の複数ラウンドのツール呼び出し履歴が一致していないことが原因です。

DeepSeek の公式ドキュメントでは、次のように説明されています。

  • thinking mode はデフォルトで enabled
  • thinking mode では reasoning_content が返る;
  • あるラウンドで tool call が発生した場合、以降のリクエストではその assistant message 内の reasoning_content を API に一緒に返す必要がある;
  • クライアントが正しく返さない場合、400 が返る。

Cline が OpenAI Compatible Provider 経由で接続している場合、現在のバージョンが DeepSeek の reasoning_content を完全に保持して返していないと、2 ラウンド目やツール呼び出し後にこのエラーが出ることがあります。

試す順序は次のとおりです。

  1. まず Cline を最新版に更新する;
  2. 通常の OpenAI provider ではなく、OpenAI Compatible を使っていることを確認する;
  3. Cline がカスタム request body をサポートしている場合、thinking mode を無効化してみる:
1
2
3
4
5
{
  "thinking": {
    "type": "disabled"
  }
}
  1. Cline が追加 body パラメータをサポートしていない場合は、当面この問題を起こさないモデルまたは互換プロキシサービスを使う;
  2. Cline が DeepSeek V4 の reasoning_content 返送に対応したら、deepseek-v4-pro に戻す。

注意点として、thinking mode を無効にすると複雑な推論能力の一部は落ちますが、クライアントが reasoning_content を返さない互換性問題は回避できます。

そのままコピーできる設定

1
2
3
4
Provider: OpenAI Compatible
API Key: sk-あなたの DeepSeek API Key
Base URL: https://api.deepseek.com
Model ID: deepseek-v4-pro

低コストモードにする場合:

1
2
3
4
Provider: OpenAI Compatible
API Key: sk-あなたの DeepSeek API Key
Base URL: https://api.deepseek.com
Model ID: deepseek-v4-flash

まとめ

Cline で DeepSeek V4 Pro を呼び出す要点は 3 つだけです。

  1. Provider で OpenAI Compatible を選ぶ;
  2. Base URL に https://api.deepseek.com を入力する;
  3. Model ID に deepseek-v4-pro を入力する。

設定後は、まず読み取り専用タスクでテストし、それから実際のコード変更を任せるのがおすすめです。 Agent タスクを頻繁に実行するなら、Flash と Pro を分けて使うとよいです。Flash は高頻度の軽量タスク、Pro は複雑な判断とフォールバックを担当します。

参考情報:

记录并分享
Hugo で構築されています。
テーマ StackJimmy によって設計されています。