定制ASIC
为模型部署和实时推理优化的专用芯片,决定AI应用的响应速度和每次推理的边际成本,重要性随AI应用普及快速上升。
上游依赖
晶圆代工、封装
服务下游
云服务商推理集群、边缘AI设备、手机
赛道受益 AI 逻辑
云厂商和大型科技公司希望降低对NVIDIA的依赖,同时针对自身特定工作负载(如推理、视频编码、搜索排序)做定制优化,推动了AI定制芯片(ASIC)的快速发展。 因果链:NVIDIA GPU通用但昂贵 → 大客户希望降低成本+供应风险 → 自研或委托设计定制AI芯片 → Google TPU、AWS Trainium、Meta MTIA陆续量产 → Broadcom和Marvell成为ASIC设计外包的核心供应商 Google是最早的践行者,TPU从2016年就开始部署;到2024年,TPU v5p已经用于Gemini大模型训练。AWS的Trainium2芯片2024年底量产,目标是训练100B+参数模型。
Broadcom AI收入
$122亿
FY2024,同比+220%
定制ASIC市场预估
$250亿+
2025年,含TPU/Trainium
Google TPU部署量
数百万片
内部Gemini训练集群
市场格局与竞争态势
定制ASIC市场由两类玩家构成:一类是自研自用的云厂商(Google、AWS、Meta、Microsoft),另一类是帮客户设计的ASIC公司(Broadcom、Marvell)。 Broadcom是这个赛道最大的赢家——为Google设计TPU、为Meta设计MTIA、为字节跳动设计AI芯片,三个大客户贡献了超过$120亿AI收入。Marvell为AWS设计Trainium/Inferentia和为微软设计Maia芯片。 格局特征:这是一个"大客户定制"市场,客户集中度极高(前3大客户占Broadcom AI收入的90%+)。技术壁垒在于高速SerDes IP、先进封装集成和与台积电的深度协作。
主要厂商市场份额
关键变量与不确定性
核心驱动因素
主要不确定性
定制ASIC是AI芯片赛道中增长最快的细分领域,但客户集中度风险很高。Broadcom若丢失Google或Meta任一大客户,收入影响巨大。另外,NVIDIA的Blackwell系列大幅提升推理性价比,可能压缩ASIC的替代空间。
代表性公司解读
所在产业链位置
产业链联动
上游同样依赖台积电先进制程和CoWoS封装、以及HBM内存。与AI算力芯片赛道是直接竞争关系——ASIC替代GPU。 下游就是几个大型云厂商客户本身。与先进封装赛道紧密关联,ASIC同样需要2.5D/3D封装集成HBM。EDA工具赛道也是关键上游——ASIC设计离不开Synopsys和Cadence的工具链。
相关赛道
下一步研究建议
HBM与DRAM
高带宽内存,直接堆叠在AI加速器旁边,以极高带宽喂数据给GPU,是当前AI训练的最大物理瓶颈,SK海力士是市场领先者。
NAND存储
固态硬盘存储介质和控制器,用于存储海量训练数据集和模型权重,AI时代对高速大容量存储需求快速增长。
AI算力芯片
专为大模型训练设计的高算力图形处理器,拥有压倒性的市场垄断地位,是AI产业最关键的算力瓶颈。英伟达H100/H200/B200系列是行业标杆。
通用CPU
数据中心服务器的主处理器,负责任务调度、操作系统和非AI计算,英特尔与AMD在此市场激烈竞争。
晶圆代工
将芯片设计文件转化为实物,掌握最先进制程节点就掌握算力极限。台积电是全球唯一能量产3nm/2nm的晶圆厂。
先进封装
将晶圆切割并封装为可用芯片,在极端工艺节点下先进封装(CoWoS、SoIC)的重要性与晶圆代工并列。