DeepSeek-V4 Preview 发布:1M 上下文、双模型与 API 切换提醒

基于 DeepSeek 2026 年 4 月 24 日官方新闻页,整理 DeepSeek-V4 Preview 的核心信息,包括 V4-Pro、V4-Flash、1M 上下文、Agent 优化,以及 API 模型切换与旧模型退役提醒。

DeepSeek 在 2026-04-24 发布了 DeepSeek V4 Preview Release。从官方新闻页来看,这次更新的重点非常集中:1M contextV4-ProV4-Flash 双模型、对 Agent 场景的专门优化,以及 API 侧的模型切换。

如果只看一句话,这次发布的核心信号是:DeepSeek 不只是继续做更强的模型,而是在把超长上下文和 Agent 能力一起往“可直接上线使用”的方向推进。

1. 这次一共发布了什么

官方页面里,DeepSeek-V4 Preview 主要包含两条产品线:

  • DeepSeek-V4-Pro
  • DeepSeek-V4-Flash

对应的官方描述也很直接:

  • DeepSeek-V4-Pro1.6T total / 49B active params
  • DeepSeek-V4-Flash284B total / 13B active params

从命名就能看出来,这次不是单模型升级,而是把高性能版本和更高性价比版本同时推了出来。

其中 V4-Pro 更强调上限,官方说它的表现已经可以和全球顶级闭源模型竞争;V4-Flash 则更强调速度、效率和成本,更适合对响应速度和 API 成本更敏感的场景。

2. 1M context 是这次最突出的卖点

官方页面最醒目的表述之一,就是:“Welcome to the era of cost-effective 1M context length.”

DeepSeek 这次不只是说“支持长上下文”,而是明确把 1M context 当成这代模型的默认能力来讲。页面里也写得很清楚:

  • 1M context 已经成为官方 DeepSeek 服务的默认标准
  • V4-ProV4-Flash 都支持 1M context

这件事的意义不只是“能塞更多 token”。它更直接影响下面这些任务:

  • 长代码仓库理解
  • 长文档问答和资料整合
  • 多轮 Agent 工作流
  • 跨多文件、多工具、多阶段的复杂任务

如果上下文窗口足够大,模型就更不容易因为中途丢上下文而反复回读材料,这对 Agent 编码和复杂知识工作会特别重要。

3. V4-Pro 主要在强调什么

从官方页的措辞看,DeepSeek-V4-Pro 重点强调三件事:

  • Agentic Coding 能力
  • 世界知识
  • 推理能力

页面里提到,V4-Pro 在 Agentic Coding benchmark 上达到开源 SOTA;在世界知识方面领先当前开源模型,仅落后于 Gemini-3.1-Pro;在数学、STEM 和编码能力上超过当前开源模型,并且可以和顶级闭源模型竞争。

换句话说,V4-Pro 的定位并不是单纯回答问题,而是更偏向高难度推理、复杂编码和长任务执行。

4. V4-Flash 并不是简单的缩水版

另一个值得注意的点是,官方没有把 V4-Flash 包装成“低配模型”,而是强调它在很多实际任务里已经足够强。

按照新闻页给出的说法,V4-Flash

  • 推理能力已经很接近 V4-Pro
  • 在简单 Agent 任务上与 V4-Pro 表现相当
  • 参数规模更小,响应更快,API 定价更便宜

这意味着 DeepSeek 这次给出的并不是“一个旗舰、一个入门”的非常割裂的组合,而更像是:

  • V4-Pro:追求更高性能和更强上限
  • V4-Flash:追求更低延迟和更好成本效率

对于开发者来说,这样的组合会更实用,因为很多线上任务真正需要的不是“理论最强”,而是“够强、够快、够省”。

5. 官方特别强调了 Agent 优化

这次发布页里还有一个很明确的方向:DeepSeek 在主动把 V4 往 Agent 场景上推。

官方页面提到,DeepSeek-V4 已经和一些主流 AI Agent 深度集成,包括:

  • Claude Code
  • OpenClaw
  • OpenCode

同时 DeepSeek 也提到,V4 已经在内部 agentic coding 场景中使用。

这说明它想覆盖的,不再只是聊天或普通补全,而是更长链路的工作方式:读代码、理解结构、调用工具、生成结果,再把整条流程串起来。

如果你最近正好在关注 coding agent,这个信号值得留意。因为它意味着模型厂商已经不再只拼 benchmark,而是在拼“能不能真正接进工作流”。

6. 底层结构创新在为长上下文服务

在技术描述上,官方页把这次的结构创新总结为:

  • token-wise compression
  • DSA (DeepSeek Sparse Attention)

页面给出的方向非常明确:目标是把长上下文做得更便宜、更高效,尽量降低计算和显存成本。

虽然新闻页没有展开完整技术细节,但这至少说明 DeepSeek 这次不是单纯靠“更大算力硬堆更长窗口”,而是在结构层面针对长上下文效率做了专门优化。

对实际使用者来说,这通常比单纯“窗口数字变大”更重要,因为真正决定可用性的,不只是能不能开到 1M,还包括:

  • 速度是否还能接受
  • 成本是否还能接受
  • 长上下文任务是否真的稳定

7. API 已经可用,但要注意模型切换

官方页面明确写到,这次 API 当天就已经可用。

接入方式也比较简单:

  • base_url 保持不变
  • 把模型名切换为 deepseek-v4-prodeepseek-v4-flash

同时页面说明,这两个模型都支持:

  • 1M context
  • Thinking / Non-Thinking 双模式
  • OpenAI ChatCompletions
  • Anthropic APIs

这意味着如果你原本已经接了 DeepSeek API,升级门槛并不高,主要是模型名切换和能力验证。

8. 旧模型的退役时间也写得很明确

对开发者来说,这次新闻页里最不能忽略的信息之一,其实是旧模型退役提醒。

官方写明:

  • deepseek-chat
  • deepseek-reasoner

会在 2026 年 7 月 24 日 15:59(UTC) 后完全退役并不可访问。

页面还说明,当前这两个模型实际上已经路由到 deepseek-v4-flash 的非思考 / 思考模式。

这意味着如果你的项目里还直接写着 deepseek-chatdeepseek-reasoner,现在就应该开始安排迁移,而不要拖到正式下线前再处理。

9. 这次发布值得怎么理解

如果把这次更新浓缩成几个重点,大概可以这样看:

  • DeepSeek 开始把 1M context 从“高配能力”变成默认标准
  • 双模型路线更清晰:一个冲性能上限,一个冲速度和性价比
  • Agent 能力已经被放到很核心的位置
  • API 升级路径相对直接,但旧模型退役时间需要尽快关注

对普通使用者来说,最直观的变化可能是:长文档、长代码、长流程任务会更容易放进一次上下文里。
对开发者来说,更重要的是:如果你已经在做 Agent、代码助手、资料整理、复杂工作流,这一代模型显然就是朝这些场景设计的。

DeepSeek 这次发布,不只是一次常规模型更新,更像是在明确它下一阶段的产品方向:超长上下文 + Agent 优化 + 更实际的 API 可用性。

相关链接

记录并分享
使用 Hugo 构建
主题 StackJimmy 设计