芯片层·第2

AI算力芯片

专为大模型训练设计的高算力图形处理器,拥有压倒性的市场垄断地位,是AI产业最关键的算力瓶颈。英伟达H100/H200/B200系列是行业标杆。

上游依赖

台积电等晶圆代工、SK海力士/美光HBM内存、封装基板

服务下游

超大规模云服务商、AI实验室、GPU云平台

赛道受益 AI 逻辑

AI大模型的训练和推理需要海量并行计算,GPU/加速器是唯一能满足这种算力需求的硬件。每一代大模型参数量增长10倍,对应算力需求增长更快——这是AI产业链中最直接、最核心的受益环节。 因果链:大模型参数量指数增长 → 训练算力需求每年翻3-4倍 → GPU/加速器采购爆发 → NVIDIA数据中心收入从2022年$150亿飙升至2024年$1150亿+ → 各方加速自研芯片试图打破单一供应商依赖 目前NVIDIA凭借CUDA生态和硬件性能的绝对领先,占据AI训练芯片约80%份额。但AMD、Intel、以及各大云厂商的自研芯片正在推理市场形成竞争。

NVIDIA数据中心收入

$1150亿+

FY2025,同比增长115%

全球AI芯片市场

~$700亿

2024年,含训练+推理

H100/H200出货量

~370万片

2024年估算

市场格局与竞争态势

AI算力芯片市场是全球科技行业最集中的市场之一。NVIDIA凭借A100/H100/H200/B200系列GPU和CUDA软件栈,在AI训练市场份额超过80%。AMD的MI300X在推理场景获得一定突破,微软和Meta是主要客户。Intel的Gaudi系列市场份额极小。 云厂商自研芯片是重要变量:Google TPU已经大规模内部部署,AWS的Trainium2在训练场景推进,Microsoft和Meta也在推自研方案。但短期内都无法替代NVIDIA的生态壁垒。 格局特征:赢者通吃的市场,CUDA生态锁定效应极强。短期看NVIDIA垄断格局不变,中期看AMD和自研芯片在推理端能否分走20-30%份额是关键变量。

主要厂商市场份额

NVIDIA (NVDA)
~80%
AMD (AMD)
~8%
Google TPU (内部)
~5%
AWS Trainium (内部)
~3%
Intel (INTC)
~1%
其他
~3%

关键变量与不确定性

核心驱动因素

大模型参数和训练规模持续增长推理需求随AI应用落地爆发CUDA生态锁定持续强化新架构Blackwell系列产能爬坡

主要不确定性

供给端CoWoS封装产能是否足够AMD MI系列能否打破CUDA锁定自研芯片替代NVIDIA的速度AI投资回报质疑导致资本支出放缓

AI算力芯片是当前科技投资最核心的赛道,但估值已经price in了极高增长预期。关键风险在于:如果AI大模型scaling law遇到瓶颈,或者云厂商资本支出增速放缓,NVIDIA的增速会快速回落。AMD的MI350系列(2025年下半年)是否能真正争夺训练份额值得跟踪。

代表性公司解读

所在产业链位置

上游材料与设备 2条
制造核心 4条
芯片设计 7条
上游 下游
预设链路:
双指放大查看产业链地图

产业链联动

上游依赖台积电先进制程(3nm/2nm)和CoWoS先进封装产能——台积电是NVIDIA和AMD的唯一代工厂。HBM内存(SK海力士、三星、美光)是GPU的关键配套,每颗H100需要80GB HBM3。 下游直接对接超大规模云厂商(微软、亚马逊、Google、Meta)和GPU云服务商(CoreWeave等),它们的资本支出计划直接决定芯片采购量。AI服务器赛道是下一级集成环节。

相关赛道

下一步研究建议