DeepSeek 在 2026-04-24 發布了 DeepSeek V4 Preview Release。從官方新聞頁來看,這次更新的重點非常集中:1M context、V4-Pro 與 V4-Flash 雙模型、針對 Agent 場景的專門優化,以及 API 側的模型切換。
如果只看一句話,這次發布的核心訊號是:DeepSeek 不只是繼續做更強的模型,而是在把超長上下文和 Agent 能力一起往「可以直接上線使用」的方向推進。
1. 這次一共發布了什麼
官方頁面裡,DeepSeek-V4 Preview 主要包含兩條產品線:
DeepSeek-V4-ProDeepSeek-V4-Flash
對應的官方描述也很直接:
DeepSeek-V4-Pro:1.6T total / 49B active paramsDeepSeek-V4-Flash:284B total / 13B active params
從命名就能看出來,這次不是單模型升級,而是把高性能版本和更高性價比版本同時推出。
其中 V4-Pro 更強調上限,官方表示它的表現已經可以和全球頂級閉源模型競爭;V4-Flash 則更強調速度、效率和成本,更適合對回應速度和 API 成本更敏感的場景。
2. 1M context 是這次最突出的賣點
官方頁面最醒目的表述之一,就是:「Welcome to the era of cost-effective 1M context length.」
DeepSeek 這次不只是說「支援長上下文」,而是明確把 1M context 當成這代模型的預設能力來講。頁面裡也寫得很清楚:
1M context已經成為官方 DeepSeek 服務的預設標準V4-Pro和V4-Flash都支援1M context
這件事的意義不只是「能塞更多 token」。它更直接影響下面這些任務:
- 長程式碼倉庫理解
- 長文件問答與資料整理
- 多輪 Agent 工作流
- 橫跨多檔案、多工具、多階段的複雜任務
如果上下文窗口夠大,模型就比較不容易因為中途丟失上下文而反覆回讀材料,這對 Agent 編碼和複雜知識工作會特別重要。
3. V4-Pro 主要在強調什麼
從官方頁的措辭來看,DeepSeek-V4-Pro 重點強調三件事:
- Agentic Coding 能力
- 世界知識
- 推理能力
頁面提到,V4-Pro 在 Agentic Coding benchmark 上達到開源 SOTA;在世界知識方面領先目前的開源模型,只落後於 Gemini-3.1-Pro;在數學、STEM 和編碼能力上超過目前的開源模型,並且可以和頂級閉源模型競爭。
換句話說,V4-Pro 的定位並不是單純回答問題,而是更偏向高難度推理、複雜編碼和長任務執行。
4. V4-Flash 並不是簡單的縮水版
另一個值得注意的點是,官方沒有把 V4-Flash 包裝成「低配模型」,而是強調它在很多實際任務裡已經足夠強。
按照新聞頁給出的說法,V4-Flash:
- 推理能力已經很接近
V4-Pro - 在簡單 Agent 任務上與
V4-Pro表現相當 - 參數規模更小、回應更快、API 定價更便宜
這意味著 DeepSeek 這次給出的並不是「一個旗艦、一個入門」這種非常割裂的組合,而更像是:
V4-Pro:追求更高性能和更強上限V4-Flash:追求更低延遲和更好的成本效率
對開發者來說,這樣的組合會更實用,因為很多線上任務真正需要的不是「理論最強」,而是「夠強、夠快、夠省」。
5. 官方特別強調了 Agent 優化
這次發布頁裡還有一個很明確的方向:DeepSeek 在主動把 V4 往 Agent 場景上推。
官方頁面提到,DeepSeek-V4 已經和一些主流 AI Agent 深度整合,包括:
Claude CodeOpenClawOpenCode
同時 DeepSeek 也提到,V4 已經在內部 agentic coding 場景中使用。
這說明它想覆蓋的,不再只是聊天或普通補全,而是更長鏈路的工作方式:讀程式碼、理解結構、調用工具、生成結果,再把整條流程串起來。
如果你最近剛好在關注 coding agent,這個訊號值得留意。因為它意味著模型廠商已經不再只拼 benchmark,而是在拼「能不能真正接進工作流」。
6. 底層結構創新是在為長上下文服務
在技術描述上,官方頁把這次的結構創新總結為:
- token-wise compression
DSA (DeepSeek Sparse Attention)
頁面給出的方向非常明確:目標是把長上下文做得更便宜、更高效,盡量降低計算和顯存成本。
雖然新聞頁沒有展開完整技術細節,但這至少說明 DeepSeek 這次不是單純靠「更大算力硬堆更長窗口」,而是在結構層面針對長上下文效率做了專門優化。
對實際使用者來說,這通常比單純「窗口數字變大」更重要,因為真正決定可用性的,不只是能不能開到 1M,還包括:
- 速度是否還能接受
- 成本是否還能接受
- 長上下文任務是否真的穩定
7. API 已經可用,但要注意模型切換
官方頁面明確寫到,這次 API 當天就已經可用。
接入方式也比較簡單:
base_url保持不變- 把模型名切換為
deepseek-v4-pro或deepseek-v4-flash
同時頁面說明,這兩個模型都支援:
1M contextThinking / Non-Thinking雙模式OpenAI ChatCompletionsAnthropic APIs
這意味著如果你原本已經接了 DeepSeek API,升級門檻並不高,主要是模型名切換和能力驗證。
8. 舊模型的退役時間也寫得很明確
對開發者來說,這次新聞頁裡最不能忽略的資訊之一,其實是舊模型退役提醒。
官方寫明:
deepseek-chatdeepseek-reasoner
會在 2026 年 7 月 24 日 15:59(UTC) 後完全退役並不可訪問。
頁面還說明,當前這兩個模型實際上已經路由到 deepseek-v4-flash 的非思考 / 思考模式。
這意味著如果你的專案裡還直接寫著 deepseek-chat 或 deepseek-reasoner,現在就應該開始安排遷移,而不要拖到正式下線前再處理。
9. 這次發布值得怎麼理解
如果把這次更新濃縮成幾個重點,大概可以這樣看:
- DeepSeek 開始把
1M context從「高配能力」變成預設標準 - 雙模型路線更清晰:一個衝性能上限,一個衝速度和性價比
- Agent 能力已經被放到很核心的位置
- API 升級路徑相對直接,但舊模型退役時間需要盡快關注
對一般使用者來說,最直觀的變化可能是:長文件、長程式碼、長流程任務會更容易放進一次上下文裡。
對開發者來說,更重要的是:如果你已經在做 Agent、程式碼助手、資料整理、複雜工作流,這一代模型顯然就是朝這些場景設計的。
DeepSeek 這次發布,不只是一次常規模型更新,更像是在明確它下一階段的產品方向:超長上下文 + Agent 優化 + 更實際的 API 可用性。