赛道受益 AI 逻辑
AI工作负载需要处理PB级别的训练数据和模型权重文件,对存储系统的吞吐量、延迟和可扩展性提出了极高要求。传统企业存储架构无法满足AI数据管线的需求,推动了高性能存储方案的升级。 因果链:AI训练数据规模达PB级 → 传统存储吞吐不够导致GPU空等(GPU利用率下降)→ 高性能并行文件系统和全闪存阵列需求增长 → NetApp、Dell、Pure Storage的AI存储方案销量增长 → GPU:存储的配比成为AI基础设施设计的关键参数 NVIDIA推出的GPUDirect Storage技术允许GPU直接从NVMe SSD读取数据绕过CPU,进一步推动了AI与存储的深度整合。
全球企业存储市场
~$300亿
2024年,含全闪存和混合
全闪存阵列增速
+18%
2024年同比
AI数据管线存储需求
PB级
单个大型训练项目
市场格局与竞争态势
企业存储市场由Dell、NetApp、HPE、Pure Storage、华为等主导。Dell以块存储和统一存储份额最大。NetApp在NAS/文件存储和混合云数据管理领域有独特优势。Pure Storage专注全闪存,增速最快。 AI存储是一个新兴细分,核心竞争力在于并行I/O性能。VAST Data和WekaIO是两家专注AI/HPC存储的初创公司,产品专门为GPU集群优化。 格局特征:传统企业存储增长缓慢,但AI存储需求为行业注入新活力。竞争焦点从容量和成本转向性能和GPU集成能力。
主要厂商市场份额
关键变量与不确定性
核心驱动因素
主要不确定性
企业存储是成熟行业中受AI拉动的细分。Pure Storage增速和估值都较高,是AI存储最纯正的上市标的。Dell和NetApp受益但AI存储只占它们收入的一小部分。
代表性公司解读
所在产业链位置
产业链联动
上游是NAND存储(SSD)和HDD厂商——企业存储系统的核心部件是存储介质。与NAND存储赛道直接关联。 下游服务数据中心和企业客户。与AI服务器赛道紧密配合——AI服务器需要搭配高性能存储才能发挥GPU的全部算力。数据平台赛道则在存储之上提供数据管理和分析能力。
相关赛道
下一步研究建议
数据中心
提供机柜托管和数据中心地产,从AI基建狂潮中赚取稳定的租金收入,Equinix和Digital Realty是北美最大的REIT。
AI服务器
组装搭载GPU和高速网络的AI服务器,超微电脑(SMCI)以快速定制能力在此赛道领先,戴尔和HPE是传统大厂。
超大规模云
AWS、Azure、谷歌云三巨头提供一站式算力、存储、网络云服务,是AI应用最主要的运行平台,正投入数千亿美元扩建AI数据中心。
GPU云
专门出租高密度GPU算力,服务大模型训练和推理需求,是英伟达H100/H200算力最直接的二级市场。CoreWeave是代表性公司。
以太网交换机
在AI数据中心内通过高性能以太网交换机互连GPU集群,Arista Networks凭借低延迟、高吞吐交换机成为AI时代数据中心网络的最大受益者。
高速光模块
将电信号与光信号互转,实现服务器间高速传输,400G/800G光模块是AI数据中心网络的关键核心器件,中国厂商全球份额第一。