为模型部署和实时推理优化的专用芯片,决定AI应用的响应速度和每次推理的边际成本,重要性随AI应用普及快速上升。

上游依赖

晶圆代工、封装

服务下游

云服务商推理集群、边缘AI设备、手机

赛道受益 AI 逻辑

云厂商和大型科技公司希望降低对NVIDIA的依赖,同时针对自身特定工作负载(如推理、视频编码、搜索排序)做定制优化,推动了AI定制芯片(ASIC)的快速发展。 因果链:NVIDIA GPU通用但昂贵 → 大客户希望降低成本+供应风险 → 自研或委托设计定制AI芯片 → Google TPU、AWS Trainium、Meta MTIA陆续量产 → Broadcom和Marvell成为ASIC设计外包的核心供应商 Google是最早的践行者,TPU从2016年就开始部署;到2024年,TPU v5p已经用于Gemini大模型训练。AWS的Trainium2芯片2024年底量产,目标是训练100B+参数模型。

Broadcom AI收入

$122亿

FY2024,同比+220%

定制ASIC市场预估

$250亿+

2025年,含TPU/Trainium

Google TPU部署量

数百万片

内部Gemini训练集群

市场格局与竞争态势

定制ASIC市场由两类玩家构成:一类是自研自用的云厂商(Google、AWS、Meta、Microsoft),另一类是帮客户设计的ASIC公司(Broadcom、Marvell)。 Broadcom是这个赛道最大的赢家——为Google设计TPU、为Meta设计MTIA、为字节跳动设计AI芯片,三个大客户贡献了超过$120亿AI收入。Marvell为AWS设计Trainium/Inferentia和为微软设计Maia芯片。 格局特征:这是一个"大客户定制"市场,客户集中度极高(前3大客户占Broadcom AI收入的90%+)。技术壁垒在于高速SerDes IP、先进封装集成和与台积电的深度协作。

主要厂商市场份额

Broadcom (AVGO)
~45%
Google自研 (内部)
~20%
Marvell (MRVL)
~15%
AWS自研 (内部)
~10%
其他
~10%

关键变量与不确定性

核心驱动因素

云厂商降低NVIDIA依赖意愿强烈推理场景ASIC性价比优于GPUBroadcom三大客户持续扩产新客户(微软/Meta)加入自研阵营

主要不确定性

ASIC能否真正替代GPU用于训练大客户自建设计能力后减少外包台积电产能分配优先级NVIDIA降价挤压ASIC性价比优势

定制ASIC是AI芯片赛道中增长最快的细分领域,但客户集中度风险很高。Broadcom若丢失Google或Meta任一大客户,收入影响巨大。另外,NVIDIA的Blackwell系列大幅提升推理性价比,可能压缩ASIC的替代空间。

代表性公司解读

所在产业链位置

上游材料与设备 2条
制造核心 4条
芯片设计 7条
上游 下游
预设链路:
双指放大查看产业链地图

产业链联动

上游同样依赖台积电先进制程和CoWoS封装、以及HBM内存。与AI算力芯片赛道是直接竞争关系——ASIC替代GPU。 下游就是几个大型云厂商客户本身。与先进封装赛道紧密关联,ASIC同样需要2.5D/3D封装集成HBM。EDA工具赛道也是关键上游——ASIC设计离不开Synopsys和Cadence的工具链。

相关赛道

下一步研究建议