Anthropic 提高 Claude 使用額度,並與 SpaceX 擴充算力

整理 Anthropic 透過 SpaceX 算力合作提高 Claude Code 和 Claude API 使用額度的公告,以及這背後反映出的 AI 公司算力競爭。

Anthropic 在 2026 年 5 月 6 日宣布,提高 Claude Code 和 Claude API 的部分使用額度,同時披露與 SpaceX 達成新的算力合作。

這條消息表面上是「額度變多了」,但真正值得看的,是模型公司正在把產品體驗、訂閱價格、API 限流和基礎設施供應綁在一起。對重度使用者來說,算力不是抽象概念,而是能不能跑更多 Claude Code 任務、能不能少排隊、能不能穩定呼叫 Opus 模型。

Claude Code 和 API 額度怎麼變

Anthropic 這次公布了三項變化,並表示都從公告當天開始生效。

第一,Claude Code 面向 Pro、Max、Team 和按席位計費的 Enterprise 方案,把五小時視窗內的使用限制提高到原來的兩倍。

這對 Claude Code 的重度使用者很直接。過去如果在短時間內讓 Claude Code 連續讀程式碼、改程式碼、跑任務,很容易碰到五小時額度限制。額度翻倍後,同一段工作時間內能承載更多連續開發任務。

第二,Pro 和 Max 帳戶不再受 Claude Code 高峰時段額度下調影響。

這點比數字本身更重要。很多 AI 工具最影響體驗的,不是平時額度,而是高峰期突然變慢、變少、變不穩定。取消高峰時段的限制下調,說明 Anthropic 想讓付費使用者在忙時也有更可預期的體驗。

第三,Anthropic 提高了 Claude Opus 模型的 API rate limits。原文中相關數值以表格圖片展示,核心結論是 Opus API 的呼叫上限被明顯上調。

從開發者角度看,Opus 一直是更貴、更重、能力也更強的模型。提高 Opus API 限額,意味著 Anthropic 不只想讓使用者在聊天介面裡多用 Claude,也希望更多企業和開發者把 Opus 放進真實業務流程。

SpaceX 算力合作的分量

額度提高背後,是新的算力供給。

Anthropic 表示,已經與 SpaceX 簽署協議,將使用 SpaceX 的 Colossus 1 資料中心全部算力容量。這項合作會在一個月內帶來超過 300 兆瓦的新容量,對應超過 22 萬塊 NVIDIA GPU。

這組數字說明兩件事。

第一,前沿模型公司的瓶頸仍然是算力。模型能力、上下文長度、工具呼叫、程式碼代理、多模態和企業場景都會消耗大量推理資源。使用者越多、任務越複雜,平台越需要穩定的大規模 GPU 供給。

第二,AI 基礎設施競爭已經進入超大規模階段。過去大家更關注模型榜單、產品功能和價格;現在,誰能更快拿到電力、機房、網路和 GPU,誰就更有機會把模型能力變成穩定產品。

Anthropic 還提到,這次 SpaceX 合作會直接改善 Claude Pro 和 Claude Max 訂閱使用者的容量體驗。也就是說,它不是只服務訓練叢集,也會進入面向使用者的推理供給。

Anthropic 的算力版圖

SpaceX 不是 Anthropic 唯一的算力合作。

Anthropic 在公告中同時回顧了幾項已經公布的基礎設施安排:

  • 與 Amazon 的最高 5GW 協議,其中包括到 2026 年底前接近 1GW 的新增容量。
  • 與 Google 和 Broadcom 的 5GW 協議,預計從 2027 年開始逐步上線。
  • 與 Microsoft 和 NVIDIA 的戰略合作,其中包括 300 億美元 Azure 容量。
  • 透過 Fluidstack 在美國 AI 基礎設施上投入 500 億美元。

這些合作的共同點,是 Anthropic 不把自己綁定在單一硬體或單一雲平台上。原文明確提到,Claude 的訓練和執行會使用 AWS Trainium、Google TPU 和 NVIDIA GPU。

這種多供應商路線有現實意義。單靠一家雲廠商,很難長期滿足前沿模型訓練和大規模推理的峰值需求。多平台布局雖然會增加工程複雜度,但能降低供應鏈和容量風險。

為什麼額度提升本質上是算力問題

AI 產品的「額度」不是普通網路產品裡的會員權益文案,它背後對應真實成本。

Claude Code 每次讀取倉庫、生成補丁、執行長任務,都會消耗推理資源。API 使用者如果把 Opus 接入客服、金融分析、程式碼審查、文件處理或 agent 工作流,也會產生持續呼叫。對平台來說,放寬限額就意味著要有更多穩定算力兜底。

所以這次公告的邏輯很清楚:先說明使用者能獲得更高限制,再解釋這些限制為什麼現在可以提高。新增的 SpaceX 容量,以及此前和 Amazon、Google、Microsoft、NVIDIA、Fluidstack 的合作,都是為了支撐更重的使用場景。

這也解釋了為什麼 AI 產品會越來越強調不同方案之間的分層。免費使用者、Pro 使用者、Max 使用者、Team 使用者、Enterprise 使用者,對算力的消耗和付費能力不同。模型公司必須把額度、優先級、模型存取和基礎設施成本重新匹配起來。

軌道 AI 算力的信號

公告裡還有一個很有未來感的細節:Anthropic 表示,作為這項協議的一部分,它也表達了與 SpaceX 合作開發多吉瓦級軌道 AI 算力容量的興趣。

這不等於軌道資料中心馬上會成為現實產品。更穩妥的理解是,前沿 AI 公司已經開始把未來算力供給想像到地面資料中心之外。

AI 資料中心受電力、土地、冷卻、網路和監管限制。隨著訓練和推理需求繼續擴大,產業會探索更多基礎設施形態。軌道算力現在聽起來很遠,但它出現在 Anthropic 的正式公告裡,本身就是一個信號:算力競爭的想像空間正在被拉大。

國際化和合規需求

Anthropic 還提到,企業客戶,尤其是金融、醫療和政府等受監管產業,越來越需要本地化基礎設施來滿足合規和資料駐留要求。

這意味著模型公司不能只在美國集中建設資料中心。企業 AI 要進入真實業務,就必須處理區域合規、資料駐留、供應鏈安全、電力成本和當地社群關係。Anthropic 表示,與 Amazon 的合作中已經包括亞洲和歐洲的新增推理能力。

它還強調,會優先選擇法律和監管框架支持大規模投資、供應鏈安全的民主國家,並探索把美國資料中心電價承諾擴展到其他司法轄區。

這部分內容說明,AI 基礎設施不只是技術問題,也會越來越像能源、製造業和地緣經濟問題。

簡短判斷

Anthropic 這次公告可以概括為一句話:Claude 的額度提高,是因為背後有新的大規模算力供給。

對使用者來說,短期影響是 Claude Code 五小時限制提高、Pro 和 Max 高峰期限制減少、Opus API 呼叫空間變大。對產業來說,更重要的是模型公司競爭正在從「誰的模型更強」擴展到「誰能持續拿到足夠多、足夠穩定、足夠合規的算力」。

未來 AI 產品的體驗差距,很可能不只來自模型參數和產品設計,也來自基礎設施能力。誰能把電力、GPU、資料中心、雲合作和區域合規組織起來,誰就更有機會把前沿模型變成可長期使用的服務。

相關連結

记录并分享
使用 Hugo 建立
主題 StackJimmy 設計