芯片层·第2

AI网络芯片

用光信号替代铜线在芯片间和数据中心内传输数据,解决AI集群高速互连的功耗和带宽瓶颈,是下一代AI互连架构的基础。

上游依赖

砷化镓/磷化铟激光器、光学元件

服务下游

GPU互连、数据中心光网络

赛道受益 AI 逻辑

AI大模型训练需要成千上万颗GPU协同工作,GPU之间的数据交换速度直接决定训练效率。高速网络芯片(交换机芯片、DPU/SmartNIC、InfiniBand适配器)是连接这些GPU的核心硬件。 因果链:大模型训练集群规模指数增长(万卡/十万卡级)→ GPU间通信成为瓶颈 → 需要超高带宽、超低延迟网络 → NVIDIA InfiniBand和以太网交换机芯片需求爆发 → Broadcom以太网交换机芯片在AI集群中份额快速提升 NVIDIA通过收购Mellanox(2019年$69亿)获得了InfiniBand技术,在AI网络领域形成GPU+网络的捆绑优势。但以太网方案(Broadcom主导)在超大规模云厂商中正快速普及。

AI网络市场

~$200亿

2024年,含交换机/网卡/DPU

InfiniBand份额

~70%

AI训练集群中,NVIDIA

800G以太网交换机芯片

2024年量产

Broadcom Tomahawk 5

市场格局与竞争态势

AI网络市场存在两条路线之争:NVIDIA InfiniBand vs 以太网(Broadcom主导)。InfiniBand延迟更低、集群管理更成熟,在训练场景占优;以太网成本更低、生态更开放,被云厂商(尤其是Meta和微软)大力推动。 NVIDIA通过Mellanox掌握了InfiniBand全套技术,在AI训练网络中市占率约70%。Broadcom的Tomahawk和Jericho系列以太网交换机芯片在云数据中心交换市场份额超过70%,现在正进入AI训练场景。 格局特征:短期NVIDIA InfiniBand主导训练网络,中期以太网方案可能凭借成本优势和Ultra Ethernet联盟的推动逐步替代。推理场景则以太网已经是主流。

主要厂商市场份额

NVIDIA/Mellanox
~40%
Broadcom (AVGO)
~35%
Marvell (MRVL)
~8%
Intel (INTC)
~5%
其他
~12%

关键变量与不确定性

核心驱动因素

AI集群规模从万卡到十万卡级跃升800G/1.6T以太网交换芯片迭代Ultra Ethernet联盟推动标准统一DPU/SmartNIC卸载网络处理

主要不确定性

InfiniBand vs 以太网路线之争走向NVIDIA网络+GPU捆绑是否被反垄断关注1.6T交换芯片量产时间网络成为AI性能瓶颈的程度

AI网络是增长最快的网络细分赛道。关键变量是以太网对InfiniBand的替代速度——如果以太网方案在训练场景成熟,Broadcom受益最大;如果InfiniBand壁垒持续,NVIDIA继续收割。Arista Networks在AI网络交换机整机市场也有显著增长。

代表性公司解读

所在产业链位置

上游材料与设备 2条
制造核心 4条
芯片设计 7条
上游 下游
预设链路:
双指放大查看产业链地图

产业链联动

上游是交换芯片设计(Broadcom、Marvell)和光模块(为交换端口提供高速光互连)。以太网光模块赛道是直接的配套环节。 下游对接AI服务器集群——每个GPU机柜都需要连接到高速网络交换机。与AI算力芯片赛道紧密耦合——GPU的互连方式直接影响网络架构选择。

相关赛道

下一步研究建议