DeepSeek-V4 Preview 發布:1M 上下文、雙模型與 API 切換提醒

基於 DeepSeek 2026 年 4 月 24 日官方新聞頁,整理 DeepSeek-V4 Preview 的核心資訊,包括 V4-Pro、V4-Flash、1M 上下文、Agent 優化,以及 API 模型切換與舊模型退役提醒。

DeepSeek 在 2026-04-24 發布了 DeepSeek V4 Preview Release。從官方新聞頁來看,這次更新的重點非常集中:1M contextV4-ProV4-Flash 雙模型、針對 Agent 場景的專門優化,以及 API 側的模型切換。

如果只看一句話,這次發布的核心訊號是:DeepSeek 不只是繼續做更強的模型,而是在把超長上下文和 Agent 能力一起往「可以直接上線使用」的方向推進。

1. 這次一共發布了什麼

官方頁面裡,DeepSeek-V4 Preview 主要包含兩條產品線:

  • DeepSeek-V4-Pro
  • DeepSeek-V4-Flash

對應的官方描述也很直接:

  • DeepSeek-V4-Pro1.6T total / 49B active params
  • DeepSeek-V4-Flash284B total / 13B active params

從命名就能看出來,這次不是單模型升級,而是把高性能版本和更高性價比版本同時推出。

其中 V4-Pro 更強調上限,官方表示它的表現已經可以和全球頂級閉源模型競爭;V4-Flash 則更強調速度、效率和成本,更適合對回應速度和 API 成本更敏感的場景。

2. 1M context 是這次最突出的賣點

官方頁面最醒目的表述之一,就是:「Welcome to the era of cost-effective 1M context length.」

DeepSeek 這次不只是說「支援長上下文」,而是明確把 1M context 當成這代模型的預設能力來講。頁面裡也寫得很清楚:

  • 1M context 已經成為官方 DeepSeek 服務的預設標準
  • V4-ProV4-Flash 都支援 1M context

這件事的意義不只是「能塞更多 token」。它更直接影響下面這些任務:

  • 長程式碼倉庫理解
  • 長文件問答與資料整理
  • 多輪 Agent 工作流
  • 橫跨多檔案、多工具、多階段的複雜任務

如果上下文窗口夠大,模型就比較不容易因為中途丟失上下文而反覆回讀材料,這對 Agent 編碼和複雜知識工作會特別重要。

3. V4-Pro 主要在強調什麼

從官方頁的措辭來看,DeepSeek-V4-Pro 重點強調三件事:

  • Agentic Coding 能力
  • 世界知識
  • 推理能力

頁面提到,V4-Pro 在 Agentic Coding benchmark 上達到開源 SOTA;在世界知識方面領先目前的開源模型,只落後於 Gemini-3.1-Pro;在數學、STEM 和編碼能力上超過目前的開源模型,並且可以和頂級閉源模型競爭。

換句話說,V4-Pro 的定位並不是單純回答問題,而是更偏向高難度推理、複雜編碼和長任務執行。

4. V4-Flash 並不是簡單的縮水版

另一個值得注意的點是,官方沒有把 V4-Flash 包裝成「低配模型」,而是強調它在很多實際任務裡已經足夠強。

按照新聞頁給出的說法,V4-Flash

  • 推理能力已經很接近 V4-Pro
  • 在簡單 Agent 任務上與 V4-Pro 表現相當
  • 參數規模更小、回應更快、API 定價更便宜

這意味著 DeepSeek 這次給出的並不是「一個旗艦、一個入門」這種非常割裂的組合,而更像是:

  • V4-Pro:追求更高性能和更強上限
  • V4-Flash:追求更低延遲和更好的成本效率

對開發者來說,這樣的組合會更實用,因為很多線上任務真正需要的不是「理論最強」,而是「夠強、夠快、夠省」。

5. 官方特別強調了 Agent 優化

這次發布頁裡還有一個很明確的方向:DeepSeek 在主動把 V4 往 Agent 場景上推。

官方頁面提到,DeepSeek-V4 已經和一些主流 AI Agent 深度整合,包括:

  • Claude Code
  • OpenClaw
  • OpenCode

同時 DeepSeek 也提到,V4 已經在內部 agentic coding 場景中使用。

這說明它想覆蓋的,不再只是聊天或普通補全,而是更長鏈路的工作方式:讀程式碼、理解結構、調用工具、生成結果,再把整條流程串起來。

如果你最近剛好在關注 coding agent,這個訊號值得留意。因為它意味著模型廠商已經不再只拼 benchmark,而是在拼「能不能真正接進工作流」。

6. 底層結構創新是在為長上下文服務

在技術描述上,官方頁把這次的結構創新總結為:

  • token-wise compression
  • DSA (DeepSeek Sparse Attention)

頁面給出的方向非常明確:目標是把長上下文做得更便宜、更高效,盡量降低計算和顯存成本。

雖然新聞頁沒有展開完整技術細節,但這至少說明 DeepSeek 這次不是單純靠「更大算力硬堆更長窗口」,而是在結構層面針對長上下文效率做了專門優化。

對實際使用者來說,這通常比單純「窗口數字變大」更重要,因為真正決定可用性的,不只是能不能開到 1M,還包括:

  • 速度是否還能接受
  • 成本是否還能接受
  • 長上下文任務是否真的穩定

7. API 已經可用,但要注意模型切換

官方頁面明確寫到,這次 API 當天就已經可用。

接入方式也比較簡單:

  • base_url 保持不變
  • 把模型名切換為 deepseek-v4-prodeepseek-v4-flash

同時頁面說明,這兩個模型都支援:

  • 1M context
  • Thinking / Non-Thinking 雙模式
  • OpenAI ChatCompletions
  • Anthropic APIs

這意味著如果你原本已經接了 DeepSeek API,升級門檻並不高,主要是模型名切換和能力驗證。

8. 舊模型的退役時間也寫得很明確

對開發者來說,這次新聞頁裡最不能忽略的資訊之一,其實是舊模型退役提醒。

官方寫明:

  • deepseek-chat
  • deepseek-reasoner

會在 2026 年 7 月 24 日 15:59(UTC) 後完全退役並不可訪問。

頁面還說明,當前這兩個模型實際上已經路由到 deepseek-v4-flash 的非思考 / 思考模式。

這意味著如果你的專案裡還直接寫著 deepseek-chatdeepseek-reasoner,現在就應該開始安排遷移,而不要拖到正式下線前再處理。

9. 這次發布值得怎麼理解

如果把這次更新濃縮成幾個重點,大概可以這樣看:

  • DeepSeek 開始把 1M context 從「高配能力」變成預設標準
  • 雙模型路線更清晰:一個衝性能上限,一個衝速度和性價比
  • Agent 能力已經被放到很核心的位置
  • API 升級路徑相對直接,但舊模型退役時間需要盡快關注

對一般使用者來說,最直觀的變化可能是:長文件、長程式碼、長流程任務會更容易放進一次上下文裡。
對開發者來說,更重要的是:如果你已經在做 Agent、程式碼助手、資料整理、複雜工作流,這一代模型顯然就是朝這些場景設計的。

DeepSeek 這次發布,不只是一次常規模型更新,更像是在明確它下一階段的產品方向:超長上下文 + Agent 優化 + 更實際的 API 可用性。

相關連結

记录并分享
使用 Hugo 建立
主題 StackJimmy 設計