<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>DeepSeek on KnightLi的博客</title>
        <link>https://www.knightli.com/tags/deepseek/</link>
        <description>Recent content in DeepSeek on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <lastBuildDate>Fri, 24 Apr 2026 22:39:46 +0800</lastBuildDate><atom:link href="https://www.knightli.com/tags/deepseek/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>DeepSeek-V4 Preview 发布：1M 上下文、双模型与 API 切换提醒</title>
        <link>https://www.knightli.com/2026/04/24/deepseek-v4-preview-release/</link>
        <pubDate>Fri, 24 Apr 2026 22:39:46 +0800</pubDate>
        
        <guid>https://www.knightli.com/2026/04/24/deepseek-v4-preview-release/</guid>
        <description>&lt;p&gt;DeepSeek 在 &lt;code&gt;2026-04-24&lt;/code&gt; 发布了 &lt;a class=&#34;link&#34; href=&#34;https://api-docs.deepseek.com/news/news260424&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;DeepSeek V4 Preview Release&lt;/a&gt;。从官方新闻页来看，这次更新的重点非常集中：&lt;code&gt;1M context&lt;/code&gt;、&lt;code&gt;V4-Pro&lt;/code&gt; 与 &lt;code&gt;V4-Flash&lt;/code&gt; 双模型、对 Agent 场景的专门优化，以及 API 侧的模型切换。&lt;/p&gt;
&lt;p&gt;如果只看一句话，这次发布的核心信号是：DeepSeek 不只是继续做更强的模型，而是在把超长上下文和 Agent 能力一起往“可直接上线使用”的方向推进。&lt;/p&gt;
&lt;h2 id=&#34;1-这次一共发布了什么&#34;&gt;1. 这次一共发布了什么
&lt;/h2&gt;&lt;p&gt;官方页面里，&lt;code&gt;DeepSeek-V4 Preview&lt;/code&gt; 主要包含两条产品线：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;DeepSeek-V4-Pro&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;DeepSeek-V4-Flash&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;对应的官方描述也很直接：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;DeepSeek-V4-Pro&lt;/code&gt;：&lt;code&gt;1.6T total / 49B active params&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;DeepSeek-V4-Flash&lt;/code&gt;：&lt;code&gt;284B total / 13B active params&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;从命名就能看出来，这次不是单模型升级，而是把高性能版本和更高性价比版本同时推了出来。&lt;/p&gt;
&lt;p&gt;其中 &lt;code&gt;V4-Pro&lt;/code&gt; 更强调上限，官方说它的表现已经可以和全球顶级闭源模型竞争；&lt;code&gt;V4-Flash&lt;/code&gt; 则更强调速度、效率和成本，更适合对响应速度和 API 成本更敏感的场景。&lt;/p&gt;
&lt;h2 id=&#34;2-1m-context-是这次最突出的卖点&#34;&gt;2. &lt;code&gt;1M context&lt;/code&gt; 是这次最突出的卖点
&lt;/h2&gt;&lt;p&gt;官方页面最醒目的表述之一，就是：&lt;strong&gt;“Welcome to the era of cost-effective 1M context length.”&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;DeepSeek 这次不只是说“支持长上下文”，而是明确把 &lt;code&gt;1M context&lt;/code&gt; 当成这代模型的默认能力来讲。页面里也写得很清楚：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;1M context&lt;/code&gt; 已经成为官方 DeepSeek 服务的默认标准&lt;/li&gt;
&lt;li&gt;&lt;code&gt;V4-Pro&lt;/code&gt; 和 &lt;code&gt;V4-Flash&lt;/code&gt; 都支持 &lt;code&gt;1M context&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这件事的意义不只是“能塞更多 token”。它更直接影响下面这些任务：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;长代码仓库理解&lt;/li&gt;
&lt;li&gt;长文档问答和资料整合&lt;/li&gt;
&lt;li&gt;多轮 Agent 工作流&lt;/li&gt;
&lt;li&gt;跨多文件、多工具、多阶段的复杂任务&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;如果上下文窗口足够大，模型就更不容易因为中途丢上下文而反复回读材料，这对 Agent 编码和复杂知识工作会特别重要。&lt;/p&gt;
&lt;h2 id=&#34;3-v4-pro-主要在强调什么&#34;&gt;3. &lt;code&gt;V4-Pro&lt;/code&gt; 主要在强调什么
&lt;/h2&gt;&lt;p&gt;从官方页的措辞看，&lt;code&gt;DeepSeek-V4-Pro&lt;/code&gt; 重点强调三件事：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;Agentic Coding 能力&lt;/li&gt;
&lt;li&gt;世界知识&lt;/li&gt;
&lt;li&gt;推理能力&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;页面里提到，&lt;code&gt;V4-Pro&lt;/code&gt; 在 Agentic Coding benchmark 上达到开源 SOTA；在世界知识方面领先当前开源模型，仅落后于 &lt;code&gt;Gemini-3.1-Pro&lt;/code&gt;；在数学、&lt;code&gt;STEM&lt;/code&gt; 和编码能力上超过当前开源模型，并且可以和顶级闭源模型竞争。&lt;/p&gt;
&lt;p&gt;换句话说，&lt;code&gt;V4-Pro&lt;/code&gt; 的定位并不是单纯回答问题，而是更偏向高难度推理、复杂编码和长任务执行。&lt;/p&gt;
&lt;h2 id=&#34;4-v4-flash-并不是简单的缩水版&#34;&gt;4. &lt;code&gt;V4-Flash&lt;/code&gt; 并不是简单的缩水版
&lt;/h2&gt;&lt;p&gt;另一个值得注意的点是，官方没有把 &lt;code&gt;V4-Flash&lt;/code&gt; 包装成“低配模型”，而是强调它在很多实际任务里已经足够强。&lt;/p&gt;
&lt;p&gt;按照新闻页给出的说法，&lt;code&gt;V4-Flash&lt;/code&gt;：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;推理能力已经很接近 &lt;code&gt;V4-Pro&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;在简单 Agent 任务上与 &lt;code&gt;V4-Pro&lt;/code&gt; 表现相当&lt;/li&gt;
&lt;li&gt;参数规模更小，响应更快，API 定价更便宜&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这意味着 DeepSeek 这次给出的并不是“一个旗舰、一个入门”的非常割裂的组合，而更像是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;V4-Pro&lt;/code&gt;：追求更高性能和更强上限&lt;/li&gt;
&lt;li&gt;&lt;code&gt;V4-Flash&lt;/code&gt;：追求更低延迟和更好成本效率&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;对于开发者来说，这样的组合会更实用，因为很多线上任务真正需要的不是“理论最强”，而是“够强、够快、够省”。&lt;/p&gt;
&lt;h2 id=&#34;5-官方特别强调了-agent-优化&#34;&gt;5. 官方特别强调了 Agent 优化
&lt;/h2&gt;&lt;p&gt;这次发布页里还有一个很明确的方向：DeepSeek 在主动把 &lt;code&gt;V4&lt;/code&gt; 往 Agent 场景上推。&lt;/p&gt;
&lt;p&gt;官方页面提到，&lt;code&gt;DeepSeek-V4&lt;/code&gt; 已经和一些主流 AI Agent 深度集成，包括：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;Claude Code&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;OpenClaw&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;OpenCode&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;同时 DeepSeek 也提到，&lt;code&gt;V4&lt;/code&gt; 已经在内部 agentic coding 场景中使用。&lt;/p&gt;
&lt;p&gt;这说明它想覆盖的，不再只是聊天或普通补全，而是更长链路的工作方式：读代码、理解结构、调用工具、生成结果，再把整条流程串起来。&lt;/p&gt;
&lt;p&gt;如果你最近正好在关注 coding agent，这个信号值得留意。因为它意味着模型厂商已经不再只拼 benchmark，而是在拼“能不能真正接进工作流”。&lt;/p&gt;
&lt;h2 id=&#34;6-底层结构创新在为长上下文服务&#34;&gt;6. 底层结构创新在为长上下文服务
&lt;/h2&gt;&lt;p&gt;在技术描述上，官方页把这次的结构创新总结为：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;token-wise compression&lt;/li&gt;
&lt;li&gt;&lt;code&gt;DSA (DeepSeek Sparse Attention)&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;页面给出的方向非常明确：目标是把长上下文做得更便宜、更高效，尽量降低计算和显存成本。&lt;/p&gt;
&lt;p&gt;虽然新闻页没有展开完整技术细节，但这至少说明 DeepSeek 这次不是单纯靠“更大算力硬堆更长窗口”，而是在结构层面针对长上下文效率做了专门优化。&lt;/p&gt;
&lt;p&gt;对实际使用者来说，这通常比单纯“窗口数字变大”更重要，因为真正决定可用性的，不只是能不能开到 &lt;code&gt;1M&lt;/code&gt;，还包括：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;速度是否还能接受&lt;/li&gt;
&lt;li&gt;成本是否还能接受&lt;/li&gt;
&lt;li&gt;长上下文任务是否真的稳定&lt;/li&gt;
&lt;/ul&gt;
&lt;h2 id=&#34;7-api-已经可用但要注意模型切换&#34;&gt;7. API 已经可用，但要注意模型切换
&lt;/h2&gt;&lt;p&gt;官方页面明确写到，这次 API 当天就已经可用。&lt;/p&gt;
&lt;p&gt;接入方式也比较简单：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;base_url&lt;/code&gt; 保持不变&lt;/li&gt;
&lt;li&gt;把模型名切换为 &lt;code&gt;deepseek-v4-pro&lt;/code&gt; 或 &lt;code&gt;deepseek-v4-flash&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;同时页面说明，这两个模型都支持：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;1M context&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Thinking / Non-Thinking&lt;/code&gt; 双模式&lt;/li&gt;
&lt;li&gt;&lt;code&gt;OpenAI ChatCompletions&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;Anthropic APIs&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这意味着如果你原本已经接了 DeepSeek API，升级门槛并不高，主要是模型名切换和能力验证。&lt;/p&gt;
&lt;h2 id=&#34;8-旧模型的退役时间也写得很明确&#34;&gt;8. 旧模型的退役时间也写得很明确
&lt;/h2&gt;&lt;p&gt;对开发者来说，这次新闻页里最不能忽略的信息之一，其实是旧模型退役提醒。&lt;/p&gt;
&lt;p&gt;官方写明：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;code&gt;deepseek-chat&lt;/code&gt;&lt;/li&gt;
&lt;li&gt;&lt;code&gt;deepseek-reasoner&lt;/code&gt;&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;会在 &lt;strong&gt;2026 年 7 月 24 日 15:59（UTC）&lt;/strong&gt; 后完全退役并不可访问。&lt;/p&gt;
&lt;p&gt;页面还说明，当前这两个模型实际上已经路由到 &lt;code&gt;deepseek-v4-flash&lt;/code&gt; 的非思考 / 思考模式。&lt;/p&gt;
&lt;p&gt;这意味着如果你的项目里还直接写着 &lt;code&gt;deepseek-chat&lt;/code&gt; 或 &lt;code&gt;deepseek-reasoner&lt;/code&gt;，现在就应该开始安排迁移，而不要拖到正式下线前再处理。&lt;/p&gt;
&lt;h2 id=&#34;9-这次发布值得怎么理解&#34;&gt;9. 这次发布值得怎么理解
&lt;/h2&gt;&lt;p&gt;如果把这次更新浓缩成几个重点，大概可以这样看：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;DeepSeek 开始把 &lt;code&gt;1M context&lt;/code&gt; 从“高配能力”变成默认标准&lt;/li&gt;
&lt;li&gt;双模型路线更清晰：一个冲性能上限，一个冲速度和性价比&lt;/li&gt;
&lt;li&gt;Agent 能力已经被放到很核心的位置&lt;/li&gt;
&lt;li&gt;API 升级路径相对直接，但旧模型退役时间需要尽快关注&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;对普通使用者来说，最直观的变化可能是：长文档、长代码、长流程任务会更容易放进一次上下文里。&lt;br&gt;
对开发者来说，更重要的是：如果你已经在做 Agent、代码助手、资料整理、复杂工作流，这一代模型显然就是朝这些场景设计的。&lt;/p&gt;
&lt;p&gt;DeepSeek 这次发布，不只是一次常规模型更新，更像是在明确它下一阶段的产品方向：&lt;strong&gt;超长上下文 + Agent 优化 + 更实际的 API 可用性。&lt;/strong&gt;&lt;/p&gt;
&lt;h2 id=&#34;相关链接&#34;&gt;相关链接
&lt;/h2&gt;&lt;ul&gt;
&lt;li&gt;DeepSeek 官方新闻页：&lt;a class=&#34;link&#34; href=&#34;https://api-docs.deepseek.com/news/news260424&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://api-docs.deepseek.com/news/news260424&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Tech Report：&lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf&lt;/a&gt;&lt;/li&gt;
&lt;li&gt;Open Weights：&lt;a class=&#34;link&#34; href=&#34;https://huggingface.co/collections/deepseek-ai/deepseek-v4&#34;  target=&#34;_blank&#34; rel=&#34;noopener&#34;
    &gt;https://huggingface.co/collections/deepseek-ai/deepseek-v4&lt;/a&gt;&lt;/li&gt;
&lt;/ul&gt;
</description>
        </item>
        
    </channel>
</rss>
