<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
    <channel>
        <title>机械硬盘 on KnightLi的博客</title>
        <link>https://www.knightli.com/tags/%E6%9C%BA%E6%A2%B0%E7%A1%AC%E7%9B%98/</link>
        <description>Recent content in 机械硬盘 on KnightLi的博客</description>
        <generator>Hugo -- gohugo.io</generator>
        <language>zh-cn</language>
        <lastBuildDate>Sat, 16 May 2026 21:02:33 +0800</lastBuildDate><atom:link href="https://www.knightli.com/tags/%E6%9C%BA%E6%A2%B0%E7%A1%AC%E7%9B%98/index.xml" rel="self" type="application/rss+xml" /><item>
        <title>AI 数据中心为什么重新推高机械硬盘需求</title>
        <link>https://www.knightli.com/2026/05/16/ai-data-center-hdd-storage-demand/</link>
        <pubDate>Sat, 16 May 2026 21:02:33 +0800</pubDate>
        
        <guid>https://www.knightli.com/2026/05/16/ai-data-center-hdd-storage-demand/</guid>
        <description>&lt;p&gt;过去两年，AI 基础设施的讨论大多集中在 GPU、HBM、先进封装和电力供应上。但在训练和推理系统背后，还有一个更容易被忽略的瓶颈：存储。&lt;/p&gt;
&lt;p&gt;大模型不是只在显卡里完成一次计算就结束。训练过程中会不断产生 checkpoint、优化器状态、训练日志、数据版本和中间结果；推理阶段也会产生用户交互记录、合规留存、审计数据和系统日志。这些数据不一定都要放在最快的介质上，但它们往往不能立刻删除。&lt;/p&gt;
&lt;p&gt;这就是机械硬盘重新变重要的原因。&lt;/p&gt;
&lt;h2 id=&#34;ai-训练会制造大量冷数据&#34;&gt;AI 训练会制造大量冷数据
&lt;/h2&gt;&lt;p&gt;大模型训练需要定期保存 checkpoint。它可以理解成训练过程中的存档点：如果训练中途崩溃，系统可以从某个 checkpoint 恢复，而不是从头重跑。&lt;/p&gt;
&lt;p&gt;对大模型来说，一个 checkpoint 可能就是数 TB。一次完整训练持续数周甚至数月，中间可能保存大量 checkpoint。即便后续会清理一部分，训练过程、回溯、复现实验和模型审计仍然需要保留大量数据。&lt;/p&gt;
&lt;p&gt;除了 checkpoint，训练数据本身也在膨胀。高质量文本、图片、视频、代码数据需要清洗、去重、切分和版本管理。随着合成数据、强化学习数据和多模态数据进入训练流程，存储压力会继续增加。&lt;/p&gt;
&lt;p&gt;这些数据的特点是：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;容量巨大；&lt;/li&gt;
&lt;li&gt;不一定高频访问；&lt;/li&gt;
&lt;li&gt;需要长期保留；&lt;/li&gt;
&lt;li&gt;对单位容量成本非常敏感。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;这类数据并不适合全部放在昂贵的高速存储里。&lt;/p&gt;
&lt;h2 id=&#34;为什么不是全部用-ssd&#34;&gt;为什么不是全部用 SSD
&lt;/h2&gt;&lt;p&gt;SSD 的速度明显更快，但数据中心不能只看速度。对于 PB 级甚至更大规模的冷数据，单位容量成本会直接决定系统是否可持续。&lt;/p&gt;
&lt;p&gt;AI 集群里可以把存储分成几个层级：&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;HBM 和显存负责最热、最紧急的数据；&lt;/li&gt;
&lt;li&gt;DRAM 负责临时周转；&lt;/li&gt;
&lt;li&gt;SSD 负责高频访问、低延迟需求更强的数据；&lt;/li&gt;
&lt;li&gt;HDD 负责海量冷数据、备份、日志、checkpoint 归档和长期留存。&lt;/li&gt;
&lt;/ul&gt;
&lt;p&gt;换句话说，SSD 不是不重要，而是不能替代所有层级。真正的大规模系统往往需要分层存储：热数据追求速度，冷数据追求容量、成本和可靠性。&lt;/p&gt;
&lt;p&gt;当 AI 公司开始长期保存训练残留、模型版本、合成数据、推理日志和审计记录时，HDD 的价值就重新被放大了。&lt;/p&gt;
&lt;h2 id=&#34;机械硬盘产能为什么会紧张&#34;&gt;机械硬盘产能为什么会紧张
&lt;/h2&gt;&lt;p&gt;机械硬盘市场过去多年增长并不亮眼，消费端电脑也越来越多转向 SSD。但数据中心的需求逻辑不同。&lt;/p&gt;
&lt;p&gt;云厂商和 AI 公司需要的是大容量、可预测交付、单位 TB 成本低的近线硬盘。对于硬盘厂商来说，这类客户通常会签长期供货协议，优先级也高于零散消费市场。&lt;/p&gt;
&lt;p&gt;这会带来几个结果：&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;高容量企业盘产能被大客户提前锁定。&lt;/li&gt;
&lt;li&gt;消费级硬盘和普通渠道能分到的供应变少。&lt;/li&gt;
&lt;li&gt;新产能释放需要时间，短期内很难快速补上。&lt;/li&gt;
&lt;li&gt;机械硬盘从过去的低关注度硬件，变成 AI 基础设施的一部分。&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;更关键的是，机械硬盘行业本身已经高度集中。主流供应商数量有限，先进大容量硬盘的产能爬坡也不是简单扩厂就能立刻完成。HAMR 等新技术可以提高单盘容量，但从技术量产到稳定大规模交付仍然需要周期。&lt;/p&gt;
&lt;h2 id=&#34;存储涨价会传导到消费端&#34;&gt;存储涨价会传导到消费端
&lt;/h2&gt;&lt;p&gt;AI 数据中心吸走的不只是 GPU 和电力，也会影响存储供应链。&lt;/p&gt;
&lt;p&gt;当企业级 SSD、内存、机械硬盘的产能更多流向云厂商和 AI 基础设施，消费级市场就可能感受到价格压力。普通用户看到的 SSD、内存或硬盘涨价，并不一定只是零售端波动，而可能来自上游产能重新分配。&lt;/p&gt;
&lt;p&gt;这种影响通常不是线性的。大客户签的是长期协议，价格、交付和产能安排更稳定；消费端则更容易承受现货市场波动。于是就会出现一种现象：AI 数据中心需求增长，最终让普通消费者买存储设备也变贵。&lt;/p&gt;
&lt;h2 id=&#34;投资视角需要更谨慎&#34;&gt;投资视角需要更谨慎
&lt;/h2&gt;&lt;p&gt;AI 对存储的拉动是真实的，但这不等于所有存储相关公司都会长期受益。&lt;/p&gt;
&lt;p&gt;机械硬盘和闪存仍然有周期属性。价格上涨、产能紧张和客户长约会改善短期业绩，但一旦新产能释放、需求增速放缓，行业仍可能回到供需再平衡。对硬件公司来说，最需要关注的不是某一次涨价，而是需求是否能持续、毛利率是否改善、产能扩张是否过度，以及客户结构是否足够健康。&lt;/p&gt;
&lt;p&gt;更稳妥的理解是：AI 正在改变存储行业的需求结构。过去外界更关注算力，现在越来越多成本会转向数据保存、数据治理和模型生命周期管理。&lt;/p&gt;
&lt;h2 id=&#34;结论&#34;&gt;结论
&lt;/h2&gt;&lt;p&gt;AI 不是只消耗算力，它还持续制造数据。&lt;/p&gt;
&lt;p&gt;GPU 负责计算，HBM 负责高速喂数据，SSD 负责热数据访问，而机械硬盘负责承接庞大的冷数据底座。只要大模型训练、合成数据、推理日志和合规留存继续增长，数据中心就需要大量低成本、高容量的存储介质。&lt;/p&gt;
&lt;p&gt;机械硬盘看起来不像 AI 时代的明星硬件，但它正在变成 AI 基础设施里不可缺的一层。越先进的模型，越离不开庞大的存储系统；越昂贵的算力，越需要可靠的 checkpoint 和归档能力来保护已经投入的成本。&lt;/p&gt;
</description>
        </item>
        
    </channel>
</rss>
