芯片层
第2层受益逻辑:模型越大 → 训练算力指数级增长 → GPU 供不应求 → 代工和封装产能紧缺。芯片是 AI 产业链中护城河最深、利润最厚的环节,供给端约束决定了整个产业链的节奏。
芯片层产业导航图
一张活地图,看清芯片从材料到成品的完整链路。
当前关注重点
Rubin架构接棒Blackwell
核心Rubin预计2026下半年量产,算力再翻倍。Blackwell已铺量但仍供不应求,云厂商提前锁产能。
HBM4量产与产能争夺
核心HBM4带宽提升近2倍,产能仍被英伟达和AMD提前包销。HBM占DRAM利润超50%。
自研芯片规模化部署
趋势Google TPU v6、Amazon Trainium2已规模部署。推理端自研占比快速提升,训练端GPU仍不可替代。
先进封装产能仍是瓶颈
趋势台积电CoWoS月产能扩至约8万片,但需求仍超10万片。封装能力决定AI芯片出货节奏。
出口管制深化与国产替代
边际管制范围扩至HBM和封装设备。华为昇腾国内训练占比超30%,但与英伟达仍差1-2代。
重点赛道
AI算力芯片
专为大模型训练设计的高算力图形处理器,拥有压倒性的市场垄断地位,是AI产业最关键的算力瓶颈。英伟达H100/H200/B200系列是行业标杆。
定制ASIC
为模型部署和实时推理优化的专用芯片,决定AI应用的响应速度和每次推理的边际成本,重要性随AI应用普及快速上升。
HBM与DRAM
高带宽内存,直接堆叠在AI加速器旁边,以极高带宽喂数据给GPU,是当前AI训练的最大物理瓶颈,SK海力士是市场领先者。
晶圆代工
将芯片设计文件转化为实物,掌握最先进制程节点就掌握算力极限。台积电是全球唯一能量产3nm/2nm的晶圆厂。
先进封装
将晶圆切割并封装为可用芯片,在极端工艺节点下先进封装(CoWoS、SoIC)的重要性与晶圆代工并列。
EDA工具
提供芯片设计必不可少的软件工具(EDA),新思科技和铿腾电子双寡头垄断,没有EDA就无法设计现代芯片,是产业链最高技术壁垒之一。
AI网络芯片
用光信号替代铜线在芯片间和数据中心内传输数据,解决AI集群高速互连的功耗和带宽瓶颈,是下一代AI互连架构的基础。
半导体设备
在硅片上逐层沉积薄膜材料并精确刻蚀电路图案,是芯片制造前道工序中用量最大、最核心的设备类别。
半导体材料
为晶圆制造提供超高纯度硅片、光刻胶、特种气体等耗材,是整个半导体产业链最底层的物理材料支撑。
通用CPU
数据中心服务器的主处理器,负责任务调度、操作系统和非AI计算,英特尔与AMD在此市场激烈竞争。
NAND存储
固态硬盘存储介质和控制器,用于存储海量训练数据集和模型权重,AI时代对高速大容量存储需求快速增长。
模拟与电源
为芯片和电子系统提供稳定精密的供电管理,AI服务器数量越多、功耗越高,模拟电源芯片的需求越大。
Chiplet与互联
将CPU、GPU等多个小芯片通过先进封装拼接在一起,突破单芯片光刻面积极限,是算力持续提升的关键架构创新。
商业模式
设计侧:英伟达等无工厂模式,专注设计+生态,毛利率60-75%。Arm以IP授权收版税,几乎零边际成本。 制造侧:台积电代工模式,规模效应极强,年CapEx $300亿+。 设备侧:ASML等设备销售+维保,订单积压1-2年,能见度高。
AI 产业价值分配
五层蛋糕利润占比
芯片层利润拆解
利润占比最大,核心原因是技术壁垒创造的定价权。英伟达GPU毛利率73-78%,供不应求强化议价能力。但自研芯片正在逐步分流份额。