DeepSeek V4 發布時沒有製造出特別誇張的聲量。 沒有大型發布會,也沒有一眼碾壓所有對手的跑分敘事。 但幾天之後,它真正影響行業的地方開始顯現:連續降價。
這次變化的重點不是「模型強了一點」,而是「使用成本被打到另一個層級」。 當 Token 價格低到普通 Agent 任務幾毛錢、一兩塊錢就能跑完時,很多 Coding Plan、Token Plan 的商業邏輯都會被重新審視。
發布當天沒有炸場
DeepSeek V4 的第一波反饋並不算熱烈。 很多人期待它像 R1 那樣帶來強烈衝擊:跑分全面領先、國產算力驗證、多模態和 Agent 能力一起爆發。 但真正發布後,大家發現它更像一次穩健升級。
V4 Pro 確實是強模型,尤其在程式碼、數學、長上下文和 agentic coding 上表現不錯。 但它不是那種讓所有同類模型瞬間失色的產品。 所以發布當天,輿論一度有些尷尬:想誇,但很難找到一個足夠爆炸的角度。
真正的轉折點不是發布當天,而是後續價格調整。
連續降價才是關鍵
DeepSeek V4 發布後,價格開始連續下探。 按照 DeepSeek 官方價格頁和原文整理的資訊,當時的大致價格是:
- DeepSeek V4 Flash:輸入 100 萬 Token 約 1 元;快取命中後 100 萬 Token 約 2 分錢;
- DeepSeek V4 Pro:輸入 100 萬 Token 約 3 元;快取命中後 100 萬 Token 約 2.5 分;
- 全系列模型輸入快取命中價格降到首發價格的 1/10;
- V4 Pro 曾處在 2.5 折優惠期,優惠延長到 2026 年 5 月 31 日 23:59。
如果按美元 API 價格看,會更直觀:
| 模型 | 快取命中輸入 | 非快取輸入 | 輸出 | 上下文 |
|---|---|---|---|---|
deepseek-v4-flash |
$0.0028 / 100萬 Token | $0.14 / 100萬 Token | $0.28 / 100萬 Token | 1M |
deepseek-v4-pro 促銷價 |
$0.003625 / 100萬 Token | $0.435 / 100萬 Token | $0.87 / 100萬 Token | 1M |
deepseek-v4-pro 原價 |
$0.0145 / 100萬 Token | $1.74 / 100萬 Token | $3.48 / 100萬 Token | 1M |
這裡要注意兩個點。
第一,V4 Pro 的 $0.435 / $0.87 是促銷價,不是長期原價。 DeepSeek 官方說明裡,這個 75% 折扣延長到 2026 年 5 月 31 日 15:59 UTC。
第二,快取命中價格才是 Agent 成本模型裡的關鍵。 Flash 的快取命中輸入低到 $0.0028 / 100萬 Token,Pro 促銷期快取命中輸入是 $0.003625 / 100萬 Token。 這意味著大量重複專案上下文、工具定義、系統提示詞和歷史摘要,不再按完整輸入價格計費。
這個價格最重要的地方,是它讓很多任務的 Token 成本變得「不敏感」。 過去開發者會擔心一次 Agent 任務吃掉大量上下文、反覆讀寫程式碼、頻繁呼叫工具。 現在只要快取命中率足夠高,成本會被壓得很低。
和 GPT、Claude 的價格對比
只看 DeepSeek 自己的價格,還不容易感受到差距。 把它和同期常見的閉源模型放在一起,對比會更明顯。
| 模型 | 輸入 | 快取輸入 | 輸出 | 適合場景 |
|---|---|---|---|---|
deepseek-v4-flash |
$0.14 / M | $0.0028 / M | $0.28 / M | 高頻 Agent、常規 coding、批量任務 |
deepseek-v4-pro 促銷價 |
$0.435 / M | $0.003625 / M | $0.87 / M | 複雜 coding、規劃、事實核查 |
deepseek-v4-pro 原價 |
$1.74 / M | $0.0145 / M | $3.48 / M | 促銷結束後的 Pro 成本基準 |
| GPT-5.5 | $5 / M | $0.50 / M | $30 / M | 高品質複雜任務、通用推理 |
| GPT-5.4 | $2.50 / M | $0.25 / M | $15 / M | 程式設計和專業任務的中檔選擇 |
| GPT-5.4 mini | $0.75 / M | $0.075 / M | $4.50 / M | 成本更低的通用/子任務模型 |
| Claude Opus 4.7 | $5 / M | $0.50 / M | $25 / M | 高品質寫作、複雜推理、長任務 |
| Claude Sonnet 4.6 | $3 / M | $0.30 / M | $15 / M | 程式設計、Agent、綜合任務 |
| Claude Haiku 4.5 | $1 / M | $0.10 / M | $5 / M | 輕量任務、摘要、分類 |
這張表裡最刺眼的是輸出價格。 Agent 不只讀上下文,還會不斷生成計畫、補丁、解釋、日誌和下一步動作。 如果輸出很多,DeepSeek V4 Pro 促銷價的 $0.87 / M 和 GPT-5.5 的 $30 / M、Claude Sonnet 4.6 的 $15 / M 相比,差距會被不斷放大。
即使按 V4 Pro 原價 $3.48 / M 輸出算,它也明顯低於 GPT-5.4、GPT-5.5 和 Claude Sonnet / Opus。 如果任務可以用 Flash 承擔,輸出價會進一步降到 $0.28 / M。
快取輸入差距更誇張。 DeepSeek V4 Flash 的快取輸入是 $0.0028 / M,而 GPT-5.5 和 Claude Opus 4.7 的快取輸入都是 $0.50 / M。 這不是同一個數量級。 對反覆讀取同一程式碼倉庫的 Agent 來說,這個差距比普通聊天更重要。
Agent 任務為什麼特別受影響
AI Agent 和普通聊天不一樣。 普通聊天通常是一問一答,輸入上下文相對有限。 Agent 任務會反覆讀取專案檔案、生成計畫、呼叫工具、檢查結果、再修改程式碼。
這類任務有兩個特點:
- Token 消耗大;
- 重複上下文多。
第二點很關鍵。 在程式碼專案裡,模型會反覆讀取同一批檔案、目錄結構、錯誤日誌和修改結果。 如果平台支援快取命中,重複輸入的成本會大幅下降。
原文裡提到一次實際體驗:把 DeepSeek V4 Pro 和 Flash 接到 Claude Code 一類工具中,讓它拉取一個提示詞倉庫並做成本地搜尋網站。 任務最終完成,總成本大約 8 毛多,其中 Pro 快取命中率達到 98.7%。
這個例子說明了一個現實問題:Agent 任務越像「圍繞同一個專案反覆工作」,快取命中越有價值。 如果一次生成網站、修 bug、改前端只花幾毛錢到幾塊錢,訂閱套餐的吸引力就會下降。
可以用一個簡化任務估算差距。 假設一次 coding agent 任務包含:
- 50 萬 Token 輸入,其中 80% 能命中快取;
- 5 萬 Token 輸出;
- 不計算工具呼叫、搜尋和平台加價,只看模型 Token 成本。
大致成本如下:
| 模型 | 估算成本 |
|---|---|
| DeepSeek V4 Flash | 約 $0.03 |
| DeepSeek V4 Pro 促銷價 | 約 $0.09 |
| DeepSeek V4 Pro 原價 | 約 $0.36 |
| GPT-5.4 mini | 約 $0.30 |
| GPT-5.4 | 約 $1.01 |
| GPT-5.5 | 約 $1.75 |
| Claude Sonnet 4.6 | 約 $1.11 |
| Claude Opus 4.7 | 約 $1.65 |
這個估算不是說 DeepSeek 在所有任務上都更好。 模型品質、工具呼叫穩定性、長上下文檢索能力、程式碼風格和事實可靠性都要單獨評估。 但從成本上看,DeepSeek V4 把「讓 Agent 多跑幾輪」的邊際成本壓得很低。 這會鼓勵開發者設計更長流程、更頻繁的自檢和更多候選方案,而不是每次都擔心 Token 帳單。
Coding Plan 和 Token Plan 的差別
很多 AI 產品現在會提供兩類套餐:Coding Plan 和 Token Plan。
它們的差別大致是:
- Coding Plan 通常主要面向程式設計;
- Token Plan 通常覆蓋更多能力,例如 STT、TTS、繪圖、搜尋、embedding、RAG;
- STT 是語音轉文字;
- TTS 是文字轉語音;
- Coding Plan 往往把使用者限制在程式設計場景裡,其他能力還需要另買。
從商業角度看,Coding Plan 更像自助餐。 使用者預先付一筆固定費用,廠商賭的是大多數人不會把額度用滿。 有人用得多,有人用得少,平均下來平台仍然能賺錢。
但如果按量 Token 價格足夠低,使用者就會開始計算:我為什麼一定要買套餐? 如果一個月真實使用成本只有幾塊錢、十幾塊錢,買 40 元、200 元的套餐就不一定划算。
降價為什麼會衝擊套餐模式
訂閱套餐的成立,需要一個前提:使用者覺得單次使用很貴,或者不想計算每次呼叫成本。 當 Token 價格高時,套餐看起來更安心。 當 Token 價格低到幾乎無感時,按量付費反而更自然。
DeepSeek V4 的降價相當於把底牌亮出來:
- Agent 任務可以很便宜;
- 長上下文不一定貴到不能用;
- 快取命中可以顯著降低成本;
- 普通開發者不一定需要固定訂閱;
- 模型入口可以從「套餐平台」轉向「低價 API」。
這會讓做 Coding Plan 的平台不舒服。 如果使用者發現按量呼叫更便宜、更自由,就沒必要為了一個平台的套餐被綁定。
Flash 和 Pro 怎麼選
DeepSeek V4 的一個實用思路,是把 Flash 和 Pro 分工使用。
Flash 適合高頻、輕量、可重複的任務:
- 改 bug;
- 寫前端;
- 寫腳本;
- 做常規程式碼理解;
- 處理較長上下文裡的普通資訊整理;
- 跑大量子任務。
Flash 便宜,速度快,而且同樣支援很長上下文。 對日常 coding agent 來說,很多任務不需要一上來就用 Pro。
Pro 更適合複雜判斷和兜底任務:
- 多輪規劃;
- 複雜 Agent 流程;
- 多次 function call;
- 事實核查;
- 財經研究;
- 需要更強知識和判斷力的內容生產;
- 高風險程式碼修改。
一個合理配置是:Flash 負責跑量,Pro 負責兜底。 普通任務先用 Flash,遇到長程規劃、複雜判斷、事實核查或多工具協作時再切 Pro。 這樣既能控制成本,也能保留模型品質。
DeepSeek 為什麼可以這麼定價
DeepSeek 和很多大廠的業務結構不同。 它沒有電商、社交、短影片、雲計算、手機、汽車、辦公套件、作業系統、瀏覽器或大規模企業 SaaS 生態。
這意味著它不需要把使用者鎖在一個完整平台裡。 它可以只賣文字模型能力:你在這裡用便宜的文字模型,其他能力要呼叫誰都可以。
大廠的邏輯通常不同。 如果你買了它的 Coding Plan 或 Token Plan,就會被拉進它的雲、搜尋、繪圖、語音、資料庫和開發工具生態。 套餐不是單純賣模型,而是在爭奪使用者入口。
DeepSeek 的打法更直接:把文字模型價格壓低,爭取成為 Agent 的預設模型入口。 只要預設入口被占住,很多開發者和工具鏈就會自然圍繞它適配。
開源模型和預設入口
DeepSeek V4 如果保持開放模型路線,第三方雲廠商和平台很可能會自行部署並提供服務。 這對 DeepSeek 來說既是傳播,也可能是分流。
低價官方 API 的意義就在這裡。 如果官方價格已經足夠低,其他平台即使能部署,也很難在價格上明顯更有優勢。 使用者會傾向於直接使用預設、便宜、穩定的入口。
對 Agent 工具尤其如此。 Agent 任務依賴長上下文、快取、工具呼叫和穩定吞吐。 一旦某個模型在這些場景裡成本足夠低,它就有機會成為預設選項。
Coding Plan 仍然不是完全沒用
這並不意味著 Coding Plan 會馬上消失。 它仍然有適合的人群。
如果某些使用者真的是高強度使用者,每天把套餐額度打滿,那麼固定訂閱可能仍然划算。 就像自助餐,如果完全沒有人能吃回本,使用者也不會願意買。
但問題在於,絕大多數使用者不是這種極端高頻使用者。 低頻使用者、輕量開發者、偶爾寫腳本或改專案的人,更適合按量付費。 當 DeepSeek 把按量成本壓低後,套餐的吸引力會被削弱。
未來更可能出現的是分層選擇:
- 高頻重度使用者繼續買 Coding Plan;
- 普通使用者轉向低價 API;
- Agent 工具根據任務自動選擇 Flash / Pro;
- 平台套餐需要提供更多非模型價值,例如工作流、IDE 整合、部署、團隊管理和安全稽核。
小結
DeepSeek V4 的發布並沒有靠跑分製造最大衝擊。 真正改變行業預期的是後續降價。
當輸入 Token 和快取命中價格被壓到很低時,AI Agent 的使用成本會發生變化。 過去看起來昂貴的長上下文、程式碼專案分析、多輪工具呼叫,現在可能變成幾毛錢到幾塊錢的日常消耗。
這會直接衝擊 Coding Plan 和 Token Plan 的商業邏輯。 如果使用者可以按量付費、自由組合模型和工具,而且成本足夠低,就不一定願意被綁定在某個平台套餐裡。
DeepSeek V4 這次真正動到的,不只是模型能力排名,而是 AI Agent 的成本結構和預設入口之爭。
參考來源: