free-claude-code は、Claude Code 向けの Anthropic-compatible proxy です。
考え方は Claude Code を破解することでも、公式の無料 Claude サービスを提供することでもありません。ローカルで Anthropic API の形に互換性を持つプロキシサービスを起動し、Claude Code からのリクエストを他のモデルバックエンドへ転送します。README では NVIDIA NIM、OpenRouter、DeepSeek、LM Studio、llama.cpp、Ollama などが挙げられています。
簡単に言うと、Claude Code のターミナル体験は好きだが、モデルリクエストは別の provider やローカルモデルへ接続したい、という問題を解決するものです。
解決する問題
Claude Code の対話体験は開発タスクに向いています。
ターミナル内でコードを読み、ファイルを変更し、コマンドを実行し、プロジェクトコンテキストに基づいてタスクを進められます。ただし、多くのユーザーは常に同じモデルバックエンドを使いたいとは限りません。
- OpenRouter 上の異なるモデルを試したい
- DeepSeek のようなモデルでコストを下げたい
- リクエストをローカル Ollama に接続したい
- LM Studio や llama.cpp でローカルモデルを動かしたい
- 開発環境でプロキシ入口を統一したい
- Claude Code ワークフロー内で異なるモデルの挙動を比較したい
free-claude-code の位置づけは、Claude Code とこれらのモデルサービスの間に互換プロキシを置くことです。
Claude Code は Anthropic 風にリクエストを送り続け、プロキシがそのリクエストを異なるバックエンドへ適配します。
仕組み
3 層構造として理解できます。
- フロントエンドは Claude Code
- 中間層は
free-claude-codeプロキシ - バックエンドは OpenRouter、DeepSeek、ローカルモデル、または他のモデルサービス
Claude Code は、自分が Anthropic-compatible API にアクセスしていると考えます。
プロキシはリクエストを受け取り、設定に応じて target provider を選び、必要なフィールドを変換し、応答を Claude Code に返します。
この構造の利点は、Claude Code 自体を変更する必要がなく、すべてのモデルサービスが Claude Code をネイティブにサポートする必要もないことです。プロキシがインターフェースを合わせられれば、より多くのモデルを同じワークフローへ接続できます。
対応バックエンド
README に挙げられている方向は次のとおりです。
- NVIDIA NIM
- OpenRouter
- DeepSeek
- LM Studio
- llama.cpp
- Ollama
これらのバックエンドは、異なる利用スタイルを表しています。
OpenRouter はモデル集約入口に近く、さまざまな商用モデルやオープンソースモデルを試せます。
DeepSeek は、中国語能力、コード能力、コストを重視する人に向いています。
LM Studio、llama.cpp、Ollama はローカルモデル寄りです。自分のマシンや社内環境でモデルを動かし、外部 API 依存を減らし、オフライン実験をしやすくします。
NVIDIA NIM は、企業や GPU 推論デプロイの場面により向いています。
なぜ Anthropic-compatible proxy なのか
Claude Code はもともと Anthropic のインターフェースとモデル習慣を前提に設計されています。
他のモデルへ接続しようとすると、最初に問題になるのはインターフェースの違いです。
- リクエストフィールドが違う
- モデル名が違う
- streaming 形式が違う
- tool use の表現が違う
- エラー応答形式が違う
- token とコンテキスト制限が違う
プロキシ層の価値はここにあります。
Claude Code 側から見えるインターフェースを Anthropic に近い形に保ち、バックエンド側で適配します。ユーザーにとっては、一度プロキシを設定すれば、同じ Claude Code ワークフローの中で異なるモデルを試せます。
向いている場面
free-claude-code は次のような場面に向いています。
- Claude Code のターミナルワークフローを使いたい
- 非 Anthropic モデルを Claude Code 内で試したい
- モデル呼び出しコストを下げたい
- Claude Code を OpenRouter に接続したい
- DeepSeek などの互換モデルサービスに接続したい
- Ollama、LM Studio、llama.cpp でローカルモデルを使いたい
- チーム用に統一されたモデルプロキシ入口を用意したい
公式 Claude Code を普通に使っていて、モデル提供者、コスト、ローカルデプロイに特別な要求がないなら、この種のプロキシは必須ではありません。
しかし、頻繁にモデルを比較したり、Claude Code をローカルやサードパーティーモデルへ接続したいなら、この種のツールは便利です。
OpenRouter や Ollama を直接使う場合との違い
OpenRouter、Ollama、LM Studio を直接使う場合、通常はモデルとチャットするか、API 経由でモデルを呼び出します。
free-claude-code の目的はそれらのサービスを置き換えることではなく、Claude Code という開発ワークフローへ接続することです。
違いは次の点にあります。
- Claude Code のターミナル体験をそのまま使える
- AI がコードリポジトリを中心にタスクを実行できる
- モデルバックエンドを別 provider に切り替えられる
- ローカルモデルも Claude Code ワークフローへ入れられる
- 設定がプロキシ層に集中し、各ツールを個別に変えなくてよい
つまり、新しいチャットクライアントではなくブリッジに近いものです。
ローカルモデルで注意すべきこと
Claude Code をローカルモデルへ接続するのは魅力的ですが、現実的な制限もあります。
第一に、モデル能力の差です。
Claude Code のタスクは単なるチャットではありません。コード理解、変更計画、ファイル編集、コマンド出力処理を含みます。ローカルの小さなモデルがこれらを安定してこなせるとは限りません。
第二に、コンテキストウィンドウです。
コードタスクはコンテキストを多く使います。モデルのコンテキストが小さいと、ファイルを読み切れない、制約を見落とす、多段階タスクで背景を失う、といった問題が起きます。
第三に、tool use の互換性です。
Claude Code ワークフローはツール呼び出しと構造化動作に依存します。バックエンドモデルがチャットできても、ツール呼び出しプロトコルに従うのが得意とは限りません。
第四に、速度とハードウェアです。
ローカルモデルの速度はマシン構成、量子化方式、モデルサイズに依存します。コードタスクで応答が遅すぎると、体験は大きく下がります。
そのため、ローカルモデルは実験、低リスクタスク、特定場面に向いています。複雑なコードタスクでは、モデル能力を見て慎重に選ぶ必要があります。
利用上の境界
この種のプロジェクトはタイトルで誤解されやすいので、境界を明確にしておく必要があります。
第一に、これは公式 Claude Code の無料枠ではありません。
Claude Code のリクエストを他のモデルバックエンドへ転送するだけです。OpenRouter、DeepSeek、NVIDIA NIM、その他 API を使う場合は、それぞれの価格、クォータ、利用規約に従う必要があります。
第二に、認可を回避するためのツールではありません。
どのプロキシツールを使う場合でも、Claude Code、モデル提供者、プロジェクト自体のライセンスや利用規約を守るべきです。公式制限を回避する手段として理解しないでください。
第三に、プロキシはリクエスト内容を処理します。
コード、コマンド出力、プロジェクトコンテキストがプロキシとバックエンドサービスを通る可能性があります。デプロイ時にはログ、キー、ネットワーク、プライバシー境界を考える必要があります。会社コードや機密プロジェクトでは、制御された環境を使うべきです。
第四に、モデルごとの挙動差は大きいです。
同じ Claude Code 操作でも、モデルを替えるとまったく異なる動作になることがあります。すべてのモデルが Claude を置き換えられると考えない方がよいです。
LiteLLM などのプロキシとの関係
考え方として、free-claude-code は「互換インターフェースプロキシ」に属します。
この種のツールの共通目標は、上位アプリケーションと下位モデルサービスの結合を減らすことです。上位アプリケーションは比較的統一されたインターフェースだけを見ればよく、下位 provider は設定で切り替えられます。
プロジェクトによって重点は異なります。汎用モデルゲートウェイ寄りのものもあれば、OpenAI-compatible API 寄りのものもあり、Claude Code のようなツール向けに特化しているものもあります。
free-claude-code が注目に値するのは、汎用チャットプロキシではなく、Claude Code を直接ターゲットにしている点です。
向いているユーザー
ある程度自分で調整できるユーザーに向いています。
- Claude Code に慣れている
- API key と model provider の設定方法を知っている
- プロキシサービスの起動と環境変数を理解できる
- ネットワーク、ポート、モデル名、streaming 問題を調査できる
- コードタスクで異なるモデルの挙動を比較したい
開箱即用だけを求めるなら、公式設定の方がたいてい簡単です。
プロキシを立て、モデルを切り替え、パラメータを調整し、Claude Code をより多くのモデル環境へ接続したいなら、このプロジェクトは研究する価値があります。
参考
最後に
free-claude-code の価値は「free」という言葉ではなく、Claude Code とより多くのモデルバックエンドの間に橋を架けることです。
Claude Code の開発体験を保ちながら、OpenRouter、DeepSeek、ローカルモデル、企業向け推論サービスを試したいとき、このような Anthropic-compatible proxy は役に立ちます。