赛道受益 AI 逻辑
AI大模型的参数量巨大(GPT-4估计1.8万亿参数),训练和推理过程中需要极高的内存带宽来喂饱GPU。HBM(高带宽内存)通过3D堆叠实现传统DDR5数倍的带宽,成为AI GPU不可或缺的配套。 因果链:大模型参数暴增 → GPU需要更多更快的显存 → HBM成为唯一解决方案(带宽是DDR5的5-10倍)→ 每颗H100需要80GB HBM3,B200需要192GB HBM3e → HBM供不应求,价格是普通DRAM的5-6倍 SK海力士在HBM领域一骑绝尘,最早量产HBM3/HBM3e并独家供应NVIDIA。三星和美光在追赶,但良率和交付时间落后6-12个月。
HBM市场规模
$260亿+
2024年,同比增长280%
H100配套HBM
80GB
HBM3,5颗堆叠
HBM均价溢价
5-6倍
相比同容量DDR5
市场格局与竞争态势
HBM市场是三寡头格局:SK海力士、三星、美光。SK海力士市占率超过50%,技术和量产进度领先——HBM3e最早量产并成为NVIDIA B200独家供应商。三星约30%份额但良率问题导致在NVIDIA认证中落后。美光约15%份额,HBM3e获NVIDIA认证较早但产能有限。 DDR5 DRAM市场同样是三寡头,但竞争更均衡。AI服务器每台配套的DDR5容量是普通服务器的2-4倍,拉动了整体DRAM平均售价。 格局特征:HBM是DRAM行业利润率最高的产品,三家都在将产能从普通DRAM转向HBM。这种结构性的供给转移推高了整个DRAM行业的盈利能力。
主要厂商市场份额
关键变量与不确定性
核心驱动因素
主要不确定性
HBM是当前存储行业最好的赛道,但半导体存储本质是周期性行业。如果AI资本支出增速放缓,HBM从超级上行周期转入调整的幅度可能很大。SK海力士虽然领先,但估值已经反映了极乐观预期。
代表性公司解读
本赛道其他公司(3个)
所在产业链位置
产业链联动
上游是半导体设备(光刻、刻蚀、键合等,ASML、东京电子、Besi)和半导体材料(硅片、光刻胶)。HBM的3D堆叠需要先进的TSV(硅通孔)和混合键合技术——这与先进封装赛道紧密相关。 下游直接供应AI算力芯片赛道——每颗NVIDIA/AMD GPU都需要配套大量HBM。GPU的出货量和规格直接决定HBM的需求量。
相关赛道
下一步研究建议
晶圆代工
将芯片设计文件转化为实物,掌握最先进制程节点就掌握算力极限。台积电是全球唯一能量产3nm/2nm的晶圆厂。
EDA工具
提供芯片设计必不可少的软件工具(EDA),新思科技和铿腾电子双寡头垄断,没有EDA就无法设计现代芯片,是产业链最高技术壁垒之一。
NAND存储
固态硬盘存储介质和控制器,用于存储海量训练数据集和模型权重,AI时代对高速大容量存储需求快速增长。
先进封装
将晶圆切割并封装为可用芯片,在极端工艺节点下先进封装(CoWoS、SoIC)的重要性与晶圆代工并列。
AI算力芯片
专为大模型训练设计的高算力图形处理器,拥有压倒性的市场垄断地位,是AI产业最关键的算力瓶颈。英伟达H100/H200/B200系列是行业标杆。
通用CPU
数据中心服务器的主处理器,负责任务调度、操作系统和非AI计算,英特尔与AMD在此市场激烈竞争。