高带宽内存,直接堆叠在AI加速器旁边,以极高带宽喂数据给GPU,是当前AI训练的最大物理瓶颈,SK海力士是市场领先者。

上游依赖

光刻设备、硅片

服务下游

英伟达等GPU厂商

赛道受益 AI 逻辑

AI大模型的参数量巨大(GPT-4估计1.8万亿参数),训练和推理过程中需要极高的内存带宽来喂饱GPU。HBM(高带宽内存)通过3D堆叠实现传统DDR5数倍的带宽,成为AI GPU不可或缺的配套。 因果链:大模型参数暴增 → GPU需要更多更快的显存 → HBM成为唯一解决方案(带宽是DDR5的5-10倍)→ 每颗H100需要80GB HBM3,B200需要192GB HBM3e → HBM供不应求,价格是普通DRAM的5-6倍 SK海力士在HBM领域一骑绝尘,最早量产HBM3/HBM3e并独家供应NVIDIA。三星和美光在追赶,但良率和交付时间落后6-12个月。

HBM市场规模

$260亿+

2024年,同比增长280%

H100配套HBM

80GB

HBM3,5颗堆叠

HBM均价溢价

5-6倍

相比同容量DDR5

市场格局与竞争态势

HBM市场是三寡头格局:SK海力士、三星、美光。SK海力士市占率超过50%,技术和量产进度领先——HBM3e最早量产并成为NVIDIA B200独家供应商。三星约30%份额但良率问题导致在NVIDIA认证中落后。美光约15%份额,HBM3e获NVIDIA认证较早但产能有限。 DDR5 DRAM市场同样是三寡头,但竞争更均衡。AI服务器每台配套的DDR5容量是普通服务器的2-4倍,拉动了整体DRAM平均售价。 格局特征:HBM是DRAM行业利润率最高的产品,三家都在将产能从普通DRAM转向HBM。这种结构性的供给转移推高了整个DRAM行业的盈利能力。

主要厂商市场份额

SK海力士 (000660.KS)
~53%
三星电子 (005930.KS)
~30%
美光 (MU)
~17%

关键变量与不确定性

核心驱动因素

AI GPU出货量翻倍拉动HBM需求每颗GPU配套HBM容量持续增长HBM价格溢价维持高利润率DDR5向AI服务器升级

主要不确定性

三星HBM良率能否追上SK海力士HBM4新架构的量产时间如果AI投资放缓HBM需求断崖DRAM产能过度转向HBM的周期风险

HBM是当前存储行业最好的赛道,但半导体存储本质是周期性行业。如果AI资本支出增速放缓,HBM从超级上行周期转入调整的幅度可能很大。SK海力士虽然领先,但估值已经反映了极乐观预期。

代表性公司解读

所在产业链位置

上游材料与设备 2条
制造核心 4条
芯片设计 7条
上游 下游
预设链路:
双指放大查看产业链地图

产业链联动

上游是半导体设备(光刻、刻蚀、键合等,ASML、东京电子、Besi)和半导体材料(硅片、光刻胶)。HBM的3D堆叠需要先进的TSV(硅通孔)和混合键合技术——这与先进封装赛道紧密相关。 下游直接供应AI算力芯片赛道——每颗NVIDIA/AMD GPU都需要配套大量HBM。GPU的出货量和规格直接决定HBM的需求量。

相关赛道

下一步研究建议