组装搭载GPU和高速网络的AI服务器,超微电脑(SMCI)以快速定制能力在此赛道领先,戴尔和HPE是传统大厂。

上游依赖

英伟达GPU、英特尔/AMD CPU、HBM内存

服务下游

云服务商、企业IT

赛道受益 AI 逻辑

AI服务器是将GPU、CPU、HBM、高速网络等组件集成在一起的最终产品形态。每台AI服务器的售价是传统服务器的10-30倍($15-30万 vs $1-2万),是AI基础设施投资中单品价值最高的环节之一。 因果链:云厂商资本支出增长 → 大量采购AI服务器 → NVIDIA DGX系列和OEM定制AI服务器出货暴增 → Supermicro和Dell在AI服务器市场份额快速提升 → 服务器行业均价和利润率显著上移 NVIDIA自己设计参考架构(DGX/HGX),但交给ODM/OEM组装。Supermicro因为最快推出NVIDIA新平台的服务器而在AI时代崛起,2024年AI服务器收入超过$200亿。

全球AI服务器市场

~$1500亿

2024年,含GPU服务器

AI服务器均价

$15-30万

含8xH100配置

Supermicro AI服务器收入

$200亿+

FY2024,增长100%+

市场格局与竞争态势

AI服务器市场由几家核心玩家构成:Dell是传统服务器第一但AI服务器增速不如Supermicro;Supermicro凭借快速跟进NVIDIA新平台的能力在AI服务器中异军突起;HPE在企业级AI服务器市场有优势;联想和浪潮信息在中国市场领先。 台湾ODM(鸿海/富士康、广达、纬颖)是Hyperscaler AI服务器的主要代工方,品牌存在感弱但出货量极大。纬颖(Wiwynn)是Meta和微软AI服务器的重要供应商。 格局特征:AI服务器的核心价值在GPU,服务器本身差异化有限。竞争更多在于速度(谁最快推出新平台)和供应链管理能力。利润率相对较薄(毛利10-15%)。

主要厂商市场份额

Dell (DELL)
~20%
Supermicro (SMCI)
~18%
HPE (HPE)
~10%
鸿海/富士康 (2317.TW)
~12%
广达/纬颖
~15%
其他
~25%

关键变量与不确定性

核心驱动因素

Hyperscaler AI资本支出持续增长NVIDIA Blackwell新平台驱动换代推理服务器需求开始放量液冷服务器成为新增长点

主要不确定性

服务器硬件利润率被GPU挤压Supermicro财务争议和监管风险GPU每代更新导致旧服务器贬值白牌ODM份额是否持续扩大

AI服务器是高增长但利润薄的赛道——大部分BOM成本是GPU(70%+),服务器厂商赚的是组装和集成的利润。Supermicro增长最快但遇到了会计和监管争议(2024年被做空),需要关注其合规风险。Dell和HPE更稳健但AI纯正度较低。

代表性公司解读

本赛道其他公司(7个)

所在产业链位置

数据中心硬件 5条
云计算平台 3条
软件与安全 3条
上游 下游
预设链路:
双指放大查看产业链地图

产业链联动

上游采购AI算力芯片(NVIDIA GPU,占BOM 70%+)、通用CPU(AMD/Intel)、HBM/DRAM、AI网络芯片等。是芯片层各赛道产品的直接集成环节。 下游卖给超大规模云厂商和企业客户。数据中心赛道是AI服务器的物理承载空间。数据中心电力与冷却赛道为AI服务器提供供电和散热。

相关赛道

下一步研究建议