Jiayun's Blog

探索与分享

一封罕见的"双家联合预警"

2026 年 4 月,三星电子与 SK 海力士在各自的财报电话会上几乎同时给出了一个判断:由 AI 驱动的内存短缺,将持续到 2027 年甚至更晚。云厂商已经在锁定 2027 年的长期合同,部分一线买家甚至在谈 2028 年的远期价格。

这不是常规的"涨价吹风"。三星和 SK 海力士在过去十年大部分时间里,公开口径都偏保守——它们更怕喊涨价后下游砍单,导致库存积压(2022 年那一轮就栽过)。这次两家罕见地同时把"短缺到 2027"挂在嘴上,是一个市场结构性事件的信号:内存厂商相信,这一轮上行不再是周期,而是结构。

过去 30 年的 DRAM 周期,本质是"消费电子需求 + 厂商资本开支节奏"的两阶段博弈。这一轮,多了第三只手——AI 训练/推理对 HBM 的不可替代依赖——而它的需求曲线,与传统 DRAM 周期反相位

本文拆四件事:HBM 为什么是结构性瓶颈、产能挪移如何反过来推高常规 DRAM、云厂商和消费电子的传导差异、以及这一轮"非周期"对整个 AI 经济模型的影响。


一、HBM 不是 DRAM 的一种,是另一种生意

很多分析师把 HBM 当作"高级一点的 DDR"。这是个根本性的误解。HBM 与传统 DRAM 在制造经济学上的差异,类似于"先进封装"与"后段普通封装"的差异:

维度传统 DDR5HBM3E
Die 数量 / 模块8–16 颗,平面排列8–12 颗 3D TSV 堆叠
关键工艺1α/1β nm DRAM同上 + TSV + 微凸点 + 底填
良率(成熟期)~90%+~60–75%(HBM3E)
Wafer-to-Wafer 产能消耗约 2.5–3×
ASP(每 GB)~2–3 美元~12–18 美元
客户集中度极分散极度集中(NVIDIA + AMD + 自研芯片厂商)

注意第四行:生产 1GB HBM 实际消耗的 wafer 资源约等于 2.5–3GB 普通 DRAM。这是因为 HBM 的良率受 TSV 缺陷与堆叠键合的复合影响,更因为堆叠后的 known-good-die 筛选会丢弃大量本可用作 DDR 的好 die。

所以当三星/SK 海力士把产能从 DDR 挪到 HBM,整个 DRAM 总比特产出实际是下降的。这不是"切换产品组合",是净产能损失

2026 年三大原厂的 HBM 产能占比已从 2023 年的 ~15% wafer 占比,上升到 ~38%。SK 海力士给 NVIDIA 的 HBM3E/HBM4 长协覆盖了它本部 M16 厂几乎一半产能。三星正在把平泽 P3 一部分老 DDR 线改造为 HBM 专线。

结论:只要 NVIDIA 和 AMD 的下一代 GPU 出货曲线不被打断,HBM 就会继续"吃"DRAM 的产能,常规 DRAM 紧缺就不会缓解

二、消费电子和企业 IT 谁先扛不住

短缺会按价格弹性的反向顺序传导。我画一张感知传导图:

 1
 2
 3
 4
 5
 6
 7
 8
 9
10
11
12
13
14
15
16
HBM 紧缺 (2024 起)
GPU 厂溢价采购 → DDR 产能被挤占
服务器 DDR5 RDIMM 价格 ↑ (2025 全年涨 50%+)
PC OEM 库存博弈 → 消费 DDR5 末端涨价 (2026 Q1 起)
LPDDR / 移动 DRAM 紧张 → 旗舰手机 BOM ↑
2026 H2: 中端机型缩配 (8GB → 12GB 涨价、16GB 推迟)

最先反映的是服务器 DDR5 RDIMM——它和 HBM 共享原厂的高端晶圆产能,且企业客户对短期价格相对不敏感(SLA 重要性高于 BOM 成本)。2025 全年服务器 DDR5 现货价上涨超过 50%,长协价上涨约 25–30%。

到 2026 年初,传导抵达 PC 与消费电子。32GB DDR5-6000 套装在主流市场的零售价从 2024 年低点的 ~80 美元涨到 ~150 美元,且供货吃紧。这是 2014 年以来 DRAM 终端市场的最强一次涨价周期之一,且它发生在全球宏观需求并不强的背景下——这正说明短缺是供给侧而非需求侧驱动。

LPDDR 是下一站。智能手机厂商对 RAM 价格极度敏感(每涨 1 美元 BOM,对中端机型毛利率影响显著)。2026 年下半年,国产中端手机的"内存配置静默缩水"会成为常态——表面是"性价比",实际是供应链妥协。

三、云厂商正在用三种方式对冲

超大规模云厂商(AWS、Azure、GCP、Meta、Oracle、字节、阿里)的对冲手段比 PC OEM 复杂得多:

1. 长协锁定 + 预付款。 AWS 与 Meta 已经在 2026 年 Q1 与 SK 海力士、美光签下 2027 全年与 2028 部分的产能长协,部分合同含数十亿美元预付款。这对原厂是双赢——锁产能、锁现金流;对中小客户是噩耗——等于把现货市场的余量进一步抽干

2. 自研内存层级,绕开 HBM 增量需求。 Google TPU v5/v6 用了大量低成本 LPDDR 替代部分 HBM,配合 ICI 高带宽互联做"以带宽数量换单芯片带宽"。AWS Trainium2 也走类似路线。它们不是不想要 HBM,是买不到足够多。这反过来推动了一种新的架构哲学:“互联网络可以补内存层级的不足”

3. 推理优化吞吐回收产能。 Speculative decoding、KV cache 压缩(TurboQuant 等)、PagedAttention 的下一代变体,正在让单卡推理吞吐每 6 个月翻一番。这等于用算法复用一部分本要靠堆 HBM 才能实现的容量。这是"内存饥荒"对 AI infra 创新的一个意外正反馈。

四、为什么这一轮不同:周期被打散了

DRAM 历史上的"猪周期"大致 3–4 年一轮。涨价 → 厂商扩产 → 新产能开出 → 过剩 → 跌价 → 砍资本开支 → 短缺 → 涨价。这一轮被打散了,原因有四:

  1. HBM 和 DDR 的产能不能完全互转。原厂如果赌错了 HBM 需求,新建的 TSV 与封装产线无法回头做 DDR。这意味着扩产决策不可逆,原厂会更谨慎,反而拉长短缺。
  2. EUV 光刻机产能受限。1α/1β DRAM 节点都需要 EUV,而 ASML 给三星/SK/美光的 EUV 配额到 2027 年都已锁死。钱可以花,机器买不到
  3. 中国长鑫(CXMT)与长存(YMTC)的有效供给增长速度远低于市场预期。CXMT 的 LPDDR5 在 2025 年开始放量,但工艺仍在 1z/1α 之间,对全球紧缺缓解有限——它主要消化在国内消费电子市场。
  4. AI 推理需求的下沉。从云端推理向边缘和端侧推理的迁移,让"每个设备的 RAM 配置"持续抬升——一台 2026 年的旗舰 Android 手机标配 16GB,而 5 年前是 6GB。这是一条长期、单调向上的需求曲线。

把四条放一起,这一轮短缺不会以"价格暴跌"结束,而会以"AI 增长曲线放缓"或"新内存技术(CXL 池化、近存计算、PIM)规模化"为结束信号——前者是宏观风险,后者是技术革命,无论哪个都不是常规的周期回归。

五、对从业者的几条具体判断

  • 2026–2027 年内做 AI infra 容量规划,应当把 HBM 单价的中枢上修 30–50%,并把"拿不到货"列为高概率风险事件。
  • 消费电子产品经理应当在 2026 年下半年起,规划"内存配置的反向降级路径"——不是缩到更小,而是更精细的差异化(端侧推理用高带宽 LPDDR、待机型号用低带宽 LPDDR4X)。
  • **对 CXL 内存池、近存计算(如 Samsung HBM-PIM、SK 海力士 AiM)**的投入应该提前。这一轮短缺给了它们前所未有的市场机会窗。过去 CXL 的最大问题是"DDR 太便宜了不需要池化",这个前提正在失效。
  • 对二手服务器 DDR4/DDR5 的回收市场,会出现一波小型繁荣。2022–2023 大量退役的服务器内存条会被重新拉回数据中心做次级负载——一种典型的"短缺时期,旧资产被重新发现"现象。

六、结语:算力时代真正的"石油危机"

我们花了十年讨论"算力是新石油",但很少有人指出:石油不只是钻头和原油,还有炼油厂、管道、码头。HBM 和 DRAM 就是 AI 时代的炼油厂——它们的产能曲线,决定了上游 GPU 算力能不能真正变现。

三星与 SK 海力士这次的联合预警,是一次罕见的"原料供应商对下游"的诚实喊话。它的潜台词是:“你们 AI 圈的扩张速度,已经超过我们能跟上的产能节奏。”

接下来两年,最值得关注的不再是"哪家模型参数更大",而是哪家厂商真的拿到了 HBM 长协配额、哪家在被迫架构降级、哪家在算法上找到了绕开内存瓶颈的新路径。这才是 2026–2027 年 AI 产业真实的竞争主线。


参考资料