<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>本地模型 on KnightLi的博客</title>
        <link>https://www.knightli.com/zh-tw/tags/%E6%9C%AC%E5%9C%B0%E6%A8%A1%E5%9E%8B/</link>
        <description>Recent content in 本地模型 on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-tw</language>
        <lastBuildDate>Fri, 01 May 2026 03:41:49 +0800</lastBuildDate><atom:link href="https://www.knightli.com/zh-tw/tags/%E6%9C%AC%E5%9C%B0%E6%A8%A1%E5%9E%8B/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>free-claude-code：用代理把 Claude Code 接到 OpenRouter、DeepSeek 和本地模型</title>
        <link>https://www.knightli.com/zh-tw/2026/05/01/free-claude-code-anthropic-compatible-proxy/</link>
        <pubDate>Fri, 01 May 2026 03:41:49 +0800</pubDate>
        
        <guid>https://www.knightli.com/zh-tw/2026/05/01/free-claude-code-anthropic-compatible-proxy/</guid>
        <description>&lt;p&gt;&lt;code&gt;free-claude-code&lt;/code&gt; 是一個給 &lt;code&gt;Claude Code&lt;/code&gt; 使用的 Anthropic-compatible proxy。&lt;/p&gt;
&lt;p&gt;它的思路不是破解 Claude Code，也不是提供官方免費的 Claude 服務，而是在本地啟動一個相容 Anthropic API 形狀的代理服務，把 Claude Code 發出的請求轉發到其他模型後端。README 中提到的後端包括 NVIDIA NIM、OpenRouter、DeepSeek、LM Studio、llama.cpp 和 Ollama。&lt;/p&gt;
&lt;p&gt;簡單說，它想解決的是：你喜歡 Claude Code 的終端體驗，但希望把模型請求接到別的 provider 或本地模型上。&lt;/p&gt;
&lt;h2 id=&#34;它解決什麼問題&#34;&gt;它解決什麼問題
&lt;/h2&gt;&lt;p&gt;Claude Code 的互動體驗很適合開發任務。&lt;/p&gt;
&lt;p&gt;它可以在終端裡閱讀程式碼、修改檔案、執行命令、根據專案上下文推進任務。問題是，很多使用者並不一定想始終使用同一個模型後端：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;想試試 OpenRouter 上的不同模型&lt;/li&gt;
&lt;li&gt;想用 DeepSeek 這類模型降低成本&lt;/li&gt;
&lt;li&gt;想把請求接到本地 Ollama&lt;/li&gt;
&lt;li&gt;想用 LM Studio 或 llama.cpp 跑本地模型&lt;/li&gt;
&lt;li&gt;想在開發環境裡統一走一個代理入口&lt;/li&gt;
&lt;li&gt;想比較不同模型在 Claude Code 工作流裡的表現&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;&lt;code&gt;free-claude-code&lt;/code&gt; 的定位，就是在 Claude Code 和這些模型服務之間加一層相容代理。&lt;/p&gt;
&lt;p&gt;這樣 Claude Code 仍然按 Anthropic 風格發請求，代理負責把請求適配到不同後端。&lt;/p&gt;
&lt;h2 id=&#34;工作方式&#34;&gt;工作方式
&lt;/h2&gt;&lt;p&gt;可以把它理解成三層：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;前端是 Claude Code&lt;/li&gt;
&lt;li&gt;中間是 &lt;code&gt;free-claude-code&lt;/code&gt; 代理&lt;/li&gt;
&lt;li&gt;後端是 OpenRouter、DeepSeek、本地模型或其他模型服務&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Claude Code 以為自己在存取一個 Anthropic-compatible API。&lt;/p&gt;
&lt;p&gt;代理收到請求後，根據配置選擇目標 provider，轉換必要欄位，再把回應返回給 Claude Code。&lt;/p&gt;
&lt;p&gt;這類結構的好處是，你不用改 Claude Code 本身，也不用讓每個模型服務都原生支援 Claude Code。只要代理能把介面對齊，就能把更多模型接進同一個工作流。&lt;/p&gt;
&lt;h2 id=&#34;支援哪些後端&#34;&gt;支援哪些後端
&lt;/h2&gt;&lt;p&gt;README 中列出的方向包括：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;NVIDIA NIM&lt;/li&gt;
&lt;li&gt;OpenRouter&lt;/li&gt;
&lt;li&gt;DeepSeek&lt;/li&gt;
&lt;li&gt;LM Studio&lt;/li&gt;
&lt;li&gt;llama.cpp&lt;/li&gt;
&lt;li&gt;Ollama&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;這些後端代表了幾類不同使用方式。&lt;/p&gt;
&lt;p&gt;OpenRouter 更像模型聚合入口，可以測試不同商業和開源模型。&lt;/p&gt;
&lt;p&gt;DeepSeek 適合關注中文能力、程式碼能力和成本的人。&lt;/p&gt;
&lt;p&gt;LM Studio、llama.cpp、Ollama 則偏本地模型路線。它們適合在自己的機器或內網環境裡執行模型，減少外部 API 依賴，也方便做離線實驗。&lt;/p&gt;
&lt;p&gt;NVIDIA NIM 則更偏企業和 GPU 推理部署場景。&lt;/p&gt;
&lt;h2 id=&#34;為什麼是-anthropic-compatible-proxy&#34;&gt;為什麼是 Anthropic-compatible proxy
&lt;/h2&gt;&lt;p&gt;Claude Code 本來圍繞 Anthropic 的介面和模型習慣設計。&lt;/p&gt;
&lt;p&gt;如果你想讓它接入其他模型，最直接的問題就是介面不一致：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;請求欄位不同&lt;/li&gt;
&lt;li&gt;模型名稱不同&lt;/li&gt;
&lt;li&gt;streaming 格式不同&lt;/li&gt;
&lt;li&gt;tool use 表達不同&lt;/li&gt;
&lt;li&gt;錯誤返回格式不同&lt;/li&gt;
&lt;li&gt;token 和上下文限制不同&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;代理層的價值就在這裡。&lt;/p&gt;
&lt;p&gt;它把 Claude Code 這邊看到的介面維持在接近 Anthropic 的形狀，再在後端做適配。對使用者來說，配置一次代理後，就可以在相同 Claude Code 工作流裡測試不同模型。&lt;/p&gt;
&lt;h2 id=&#34;適合什麼場景&#34;&gt;適合什麼場景
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;free-claude-code&lt;/code&gt; 適合這些場景：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;想用 Claude Code 的終端工作流&lt;/li&gt;
&lt;li&gt;想測試非 Anthropic 模型在 Claude Code 裡的表現&lt;/li&gt;
&lt;li&gt;想降低模型呼叫成本&lt;/li&gt;
&lt;li&gt;想把 Claude Code 接到 OpenRouter&lt;/li&gt;
&lt;li&gt;想接入 DeepSeek 等相容模型服務&lt;/li&gt;
&lt;li&gt;想用 Ollama、LM Studio、llama.cpp 跑本地模型&lt;/li&gt;
&lt;li&gt;想為團隊統一配置一個模型代理入口&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;如果你只是正常使用官方 Claude Code，並且對模型提供方、成本和本地部署沒有特殊需求，那不一定需要這類代理。&lt;/p&gt;
&lt;p&gt;但如果你經常比較模型，或者希望讓 Claude Code 接入本地和第三方模型，這類工具會很有用。&lt;/p&gt;
&lt;h2 id=&#34;和直接用-openrouter-或-ollama-有什麼區別&#34;&gt;和直接用 OpenRouter 或 Ollama 有什麼區別
&lt;/h2&gt;&lt;p&gt;直接用 OpenRouter、Ollama 或 LM Studio，通常只是和模型聊天，或者透過 API 呼叫模型。&lt;/p&gt;
&lt;p&gt;&lt;code&gt;free-claude-code&lt;/code&gt; 的重點不是替代這些服務，而是把它們接到 Claude Code 這個開發工作流裡。&lt;/p&gt;
&lt;p&gt;區別在於：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;你仍然使用 Claude Code 的終端體驗&lt;/li&gt;
&lt;li&gt;AI 可以圍繞程式碼倉庫執行任務&lt;/li&gt;
&lt;li&gt;模型後端可以換成其他 provider&lt;/li&gt;
&lt;li&gt;本地模型也有機會進入 Claude Code 工作流&lt;/li&gt;
&lt;li&gt;配置集中在代理層，而不是每個工具單獨改&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;所以它更像橋接器，而不是新的聊天客戶端。&lt;/p&gt;
&lt;h2 id=&#34;本地模型要注意什麼&#34;&gt;本地模型要注意什麼
&lt;/h2&gt;&lt;p&gt;把 Claude Code 接到本地模型很有吸引力，但也要注意現實限制。&lt;/p&gt;
&lt;p&gt;第一，模型能力差距。&lt;/p&gt;
&lt;p&gt;Claude Code 的任務通常不只是聊天，還包括理解程式碼、規劃修改、編輯檔案、處理命令輸出。本地小模型不一定能穩定完成這些任務。&lt;/p&gt;
&lt;p&gt;第二，上下文視窗。&lt;/p&gt;
&lt;p&gt;程式碼任務很吃上下文。模型上下文太小，會導致它讀不全檔案、漏掉約束，或者在多輪任務裡丟失背景。&lt;/p&gt;
&lt;p&gt;第三，tool use 相容性。&lt;/p&gt;
&lt;p&gt;Claude Code 工作流依賴工具呼叫和結構化行為。後端模型即使能聊天，也未必擅長遵循工具呼叫協議。&lt;/p&gt;
&lt;p&gt;第四，速度和硬體。&lt;/p&gt;
&lt;p&gt;本地模型的速度取決於機器配置、量化方式和模型大小。程式碼任務如果回應太慢，體驗會明顯下降。&lt;/p&gt;
&lt;p&gt;所以，本地模型更適合實驗、低風險任務和特定場景。真正複雜的程式碼任務，仍然要根據模型能力謹慎選擇。&lt;/p&gt;
&lt;h2 id=&#34;使用邊界&#34;&gt;使用邊界
&lt;/h2&gt;&lt;p&gt;這類專案很容易被標題誤解，所以邊界要說清楚。&lt;/p&gt;
&lt;p&gt;第一，它不是官方 Claude Code 免費額度。&lt;/p&gt;
&lt;p&gt;它只是把 Claude Code 的請求轉發到其他模型後端。你使用 OpenRouter、DeepSeek、NVIDIA NIM 或其他 API 時，仍然需要遵守對應服務的價格、額度和使用條款。&lt;/p&gt;
&lt;p&gt;第二，它不是繞過授權的工具。&lt;/p&gt;
&lt;p&gt;使用任何代理工具時，都應該遵守 Claude Code、模型服務商和專案本身的授權協議。不要把它理解成規避官方限制的方式。&lt;/p&gt;
&lt;p&gt;第三，代理會處理你的請求內容。&lt;/p&gt;
&lt;p&gt;程式碼、命令輸出、專案上下文可能會經過代理和後端服務。部署時要考慮日誌、金鑰、網路和隱私邊界。涉及公司程式碼或敏感專案時，最好使用受控環境。&lt;/p&gt;
&lt;p&gt;第四，不同模型表現差異會很大。&lt;/p&gt;
&lt;p&gt;同樣的 Claude Code 操作，換一個模型後可能出現完全不同的行為。不要預設所有模型都能替代 Claude。&lt;/p&gt;
&lt;h2 id=&#34;和-litellm-這類代理有什麼關係&#34;&gt;和 LiteLLM 這類代理有什麼關係
&lt;/h2&gt;&lt;p&gt;從思路上看，&lt;code&gt;free-claude-code&lt;/code&gt; 屬於「相容介面代理」這一類工具。&lt;/p&gt;
&lt;p&gt;這類工具的共同目標是減少上層應用和底層模型服務之間的耦合。上層應用只需要面對一個相對統一的介面，底層 provider 可以按配置切換。&lt;/p&gt;
&lt;p&gt;不同專案的側重點不同。有的更偏通用模型閘道，有的更偏 OpenAI-compatible API，有的專門為 Claude Code 這類工具做適配。&lt;/p&gt;
&lt;p&gt;&lt;code&gt;free-claude-code&lt;/code&gt; 值得關注的地方，是它把目標場景直接放在 Claude Code 上，而不是做一個泛泛的聊天代理。&lt;/p&gt;
&lt;h2 id=&#34;適合怎樣的使用者&#34;&gt;適合怎樣的使用者
&lt;/h2&gt;&lt;p&gt;它更適合有一定折騰能力的使用者：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;熟悉 Claude Code&lt;/li&gt;
&lt;li&gt;知道 API key 和模型 provider 怎麼配置&lt;/li&gt;
&lt;li&gt;能理解代理服務的啟動和環境變數&lt;/li&gt;
&lt;li&gt;能排查網路、連接埠、模型名稱和 streaming 問題&lt;/li&gt;
&lt;li&gt;願意比較不同模型在程式碼任務裡的表現&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;如果你只想開箱即用，官方配置通常更省心。&lt;/p&gt;
&lt;p&gt;如果你願意搭代理、換模型、調參數，並且想讓 Claude Code 進入更多模型環境，這個專案就值得研究。&lt;/p&gt;
&lt;h2 id=&#34;參考&#34;&gt;參考
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;&lt;a class=&#34;link&#34; href=&#34;https://github.com/Alishahryar1/free-claude-code&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;Alishahryar1/free-claude-code&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;最後一句&#34;&gt;最後一句
&lt;/h2&gt;&lt;p&gt;&lt;code&gt;free-claude-code&lt;/code&gt; 的價值，不在於「免費」這個詞，而在於它把 Claude Code 和更多模型後端之間接了一座橋。&lt;/p&gt;
&lt;p&gt;當你想保留 Claude Code 的開發體驗，同時測試 OpenRouter、DeepSeek、本地模型或企業推理服務時，這類 Anthropic-compatible proxy 就有了用武之地。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
