Cline はすでに OpenAI Compatible Provider をサポートしています。
DeepSeek API も OpenAI SDK 風の呼び出しに対応しているため、deepseek-v4-pro を Cline に接続するのは難しくありません。OpenAI Compatible を選び、DeepSeek の Base URL、API Key、モデル名を入力すればよいだけです。
以下では、VS Code 拡張機能の画面と Cline CLI の 2 通りで整理します。
DeepSeek API Key を準備する
まず DeepSeek の開放プラットフォームで API Key を作成します。
必要な値は 3 つです。
| 項目 | 入力内容 |
|---|---|
| Provider | OpenAI Compatible |
| Base URL | https://api.deepseek.com |
| Model ID | deepseek-v4-pro |
DeepSeek の公式ドキュメントでは、V4 シリーズは既存の OpenAI 互換インターフェースを使い、base_url は https://api.deepseek.com のまま、呼び出し時に model を deepseek-v4-pro または deepseek-v4-flash に設定すると説明されています。
Cline 拡張機能で設定する
VS Code の Cline 拡張機能を使っている場合は、次の手順で設定できます。
- VS Code サイドバーの Cline を開く。
- Cline の設定またはモデル設定ページに入る。
- Provider で
OpenAI Compatibleを選ぶ。 - API Key に DeepSeek API Key を入力する。
- Base URL に次を入力する。
|
|
- Model ID に次を入力する。
|
|
- 設定を保存し、Cline のチャット画面に戻って簡単なタスクでテストする。
まずは低リスクな読み取り専用タスクを試すとよいです。
|
|
正常に読み取りと回答ができれば、モデルの接続は通っています。
Cline CLI で設定する
Cline CLI を使う場合は、cline provider configure openai-compatible で対話式設定に入れます。
例:
|
|
対話中に次を入力します。
|
|
設定後、読み取り専用タスクでテストできます。
|
|
まずコストを下げたい場合は、Model ID を一時的に次へ変更してもよいです。
|
|
複雑な計画、事実確認、複数ツールの協調、高リスクなコード変更が必要になったら、deepseek-v4-pro に戻します。
推奨するモデルの使い分け
DeepSeek V4 Pro と Flash は、役割を分けて使うほうが向いています。
| モデル | 向いている場面 |
|---|---|
deepseek-v4-flash |
日常的なコード読解、小さな修正の一括処理、スクリプト生成、コンテキスト整理、低リスクなフロントエンド修正 |
deepseek-v4-pro |
アーキテクチャ設計、複雑な bug、複数ファイルのリファクタリング、事実確認、複数ツール呼び出し、高リスクな変更 |
Cline のような Agent ツールでは、主なコストは長いコンテキスト、繰り返しのファイル読み取り、計画生成、複数ラウンドのツール呼び出しから発生します。 軽いタスクなら Flash で量をこなし、より強い判断が必要なときに Pro へ切り替えるのが現実的です。
コンテキスト長はどう設定するか
DeepSeek V4 Pro と Flash はどちらも長いコンテキストをサポートします。 Cline で context window を手動入力する必要がある場合は、DeepSeek 公式モデルページにある 1M コンテキストを目安にできます。
実際には、最初からすべてのファイルをコンテキストに入れることはおすすめしません。 Cline はタスクに応じてファイルを読み取るため、通常は次の流れがよいです。
- まずディレクトリ構造を確認させる;
- 次に関連ファイルを特定させる;
- 最後に対象ファイルだけを中心に修正させる。
このほうが Token を節約でき、タスクの境界も明確に保ちやすくなります。
よくある問題
1. モデルが存在しないと表示される
まず Model ID が次のように書かれているか確認します。
|
|
DeepSeek V4 Pro、deepseek-v4、その他の表示名を書かないでください。
2. 401 または認証失敗が出る
API Key を確認します。
- 完全にコピーできているか;
- 余計な空白が入っていないか;
- Cline が現在使っている provider 設定に入力されているか;
- DeepSeek アカウントに利用可能な残高があるか。
3. 接続失敗と表示される
Base URL を確認します。
|
|
末尾に /v1/chat/completions を追加しないでください。
Cline の OpenAI Compatible Provider が互換インターフェースのリクエストを自分で組み立てます。
4. Cline の呼び出しが高くつく
日常タスクは deepseek-v4-flash に切り替え、複雑なタスクだけ deepseek-v4-pro を使うとよいです。
また、タスク説明はできるだけ明確に書きます。
|
|
Agent タスクで最も危ないのは境界が曖昧なことです。 境界が明確なほど、読むファイルが少なくなり、ツール呼び出しも減り、コストを制御しやすくなります。
5. reasoning_content must be passed back エラー
次のようなエラーが出る場合があります。
|
|
これは通常、Key、残高、Base URL の問題ではありません。DeepSeek V4 Pro の thinking mode と、現在のクライアント側の複数ラウンドのツール呼び出し履歴が一致していないことが原因です。
DeepSeek の公式ドキュメントでは、次のように説明されています。
- thinking mode はデフォルトで
enabled; - thinking mode では
reasoning_contentが返る; - あるラウンドで tool call が発生した場合、以降のリクエストではその assistant message 内の
reasoning_contentを API に一緒に返す必要がある; - クライアントが正しく返さない場合、400 が返る。
Cline が OpenAI Compatible Provider 経由で接続している場合、現在のバージョンが DeepSeek の reasoning_content を完全に保持して返していないと、2 ラウンド目やツール呼び出し後にこのエラーが出ることがあります。
試す順序は次のとおりです。
- まず Cline を最新版に更新する;
- 通常の
OpenAIprovider ではなく、OpenAI Compatibleを使っていることを確認する; - Cline がカスタム request body をサポートしている場合、thinking mode を無効化してみる:
|
|
- Cline が追加 body パラメータをサポートしていない場合は、当面この問題を起こさないモデルまたは互換プロキシサービスを使う;
- Cline が DeepSeek V4 の
reasoning_content返送に対応したら、deepseek-v4-proに戻す。
注意点として、thinking mode を無効にすると複雑な推論能力の一部は落ちますが、クライアントが reasoning_content を返さない互換性問題は回避できます。
そのままコピーできる設定
|
|
低コストモードにする場合:
|
|
まとめ
Cline で DeepSeek V4 Pro を呼び出す要点は 3 つだけです。
- Provider で
OpenAI Compatibleを選ぶ; - Base URL に
https://api.deepseek.comを入力する; - Model ID に
deepseek-v4-proを入力する。
設定後は、まず読み取り専用タスクでテストし、それから実際のコード変更を任せるのがおすすめです。 Agent タスクを頻繁に実行するなら、Flash と Pro を分けて使うとよいです。Flash は高頻度の軽量タスク、Pro は複雑な判断とフォールバックを担当します。
参考情報: