AI网络芯片
用光信号替代铜线在芯片间和数据中心内传输数据,解决AI集群高速互连的功耗和带宽瓶颈,是下一代AI互连架构的基础。
上游依赖
砷化镓/磷化铟激光器、光学元件
服务下游
GPU互连、数据中心光网络
赛道受益 AI 逻辑
AI大模型训练需要成千上万颗GPU协同工作,GPU之间的数据交换速度直接决定训练效率。高速网络芯片(交换机芯片、DPU/SmartNIC、InfiniBand适配器)是连接这些GPU的核心硬件。 因果链:大模型训练集群规模指数增长(万卡/十万卡级)→ GPU间通信成为瓶颈 → 需要超高带宽、超低延迟网络 → NVIDIA InfiniBand和以太网交换机芯片需求爆发 → Broadcom以太网交换机芯片在AI集群中份额快速提升 NVIDIA通过收购Mellanox(2019年$69亿)获得了InfiniBand技术,在AI网络领域形成GPU+网络的捆绑优势。但以太网方案(Broadcom主导)在超大规模云厂商中正快速普及。
AI网络市场
~$200亿
2024年,含交换机/网卡/DPU
InfiniBand份额
~70%
AI训练集群中,NVIDIA
800G以太网交换机芯片
2024年量产
Broadcom Tomahawk 5
市场格局与竞争态势
AI网络市场存在两条路线之争:NVIDIA InfiniBand vs 以太网(Broadcom主导)。InfiniBand延迟更低、集群管理更成熟,在训练场景占优;以太网成本更低、生态更开放,被云厂商(尤其是Meta和微软)大力推动。 NVIDIA通过Mellanox掌握了InfiniBand全套技术,在AI训练网络中市占率约70%。Broadcom的Tomahawk和Jericho系列以太网交换机芯片在云数据中心交换市场份额超过70%,现在正进入AI训练场景。 格局特征:短期NVIDIA InfiniBand主导训练网络,中期以太网方案可能凭借成本优势和Ultra Ethernet联盟的推动逐步替代。推理场景则以太网已经是主流。
主要厂商市场份额
关键变量与不确定性
核心驱动因素
主要不确定性
AI网络是增长最快的网络细分赛道。关键变量是以太网对InfiniBand的替代速度——如果以太网方案在训练场景成熟,Broadcom受益最大;如果InfiniBand壁垒持续,NVIDIA继续收割。Arista Networks在AI网络交换机整机市场也有显著增长。
代表性公司解读
本赛道其他公司(2个)
所在产业链位置
产业链联动
上游是交换芯片设计(Broadcom、Marvell)和光模块(为交换端口提供高速光互连)。以太网光模块赛道是直接的配套环节。 下游对接AI服务器集群——每个GPU机柜都需要连接到高速网络交换机。与AI算力芯片赛道紧密耦合——GPU的互连方式直接影响网络架构选择。
相关赛道
下一步研究建议
HBM与DRAM
高带宽内存,直接堆叠在AI加速器旁边,以极高带宽喂数据给GPU,是当前AI训练的最大物理瓶颈,SK海力士是市场领先者。
NAND存储
固态硬盘存储介质和控制器,用于存储海量训练数据集和模型权重,AI时代对高速大容量存储需求快速增长。
AI算力芯片
专为大模型训练设计的高算力图形处理器,拥有压倒性的市场垄断地位,是AI产业最关键的算力瓶颈。英伟达H100/H200/B200系列是行业标杆。
通用CPU
数据中心服务器的主处理器,负责任务调度、操作系统和非AI计算,英特尔与AMD在此市场激烈竞争。
定制ASIC
为模型部署和实时推理优化的专用芯片,决定AI应用的响应速度和每次推理的边际成本,重要性随AI应用普及快速上升。
晶圆代工
将芯片设计文件转化为实物,掌握最先进制程节点就掌握算力极限。台积电是全球唯一能量产3nm/2nm的晶圆厂。