基础设施层
第3层受益逻辑:算力需要物理承载 → 数据中心大规模扩建 → 云平台弹性分发 → 网络互联同步升级。基础设施是连接芯片算力和上层应用的管道,确定性高、受益周期长。
基础设施层产业导航图
一张活地图,看清算力从芯片到云端的分发路径。
当前关注重点
云厂商AI CapEx超级周期延续
核心2026年四大云厂商AI资本开支预计合计超$2000亿,同比增40%+。AI云收入增速验证投资回报逻辑。
1.6T光模块放量元年
核心1.6T规模出货,800G成主力。光模块ASP持续上行,是基建层增速最快的子赛道。
数据中心建设向全球扩散
趋势弗吉尼亚电力饱和,新建加速向德州、东南亚、中东转移。建设周期和电力仍是最大瓶颈。
GPU云格局初步成型
趋势CoreWeave IPO后成标杆,推理走传统云、训练走GPU云的分工日益清晰。
AI安全基础设施需求爆发
边际AI驱动的攻击手段升级,企业安全支出同比增60%+。AI安全产品线增速远超传统安全。
重点赛道
超大规模云
AWS、Azure、谷歌云三巨头提供一站式算力、存储、网络云服务,是AI应用最主要的运行平台,正投入数千亿美元扩建AI数据中心。
GPU云
专门出租高密度GPU算力,服务大模型训练和推理需求,是英伟达H100/H200算力最直接的二级市场。CoreWeave是代表性公司。
数据中心
提供机柜托管和数据中心地产,从AI基建狂潮中赚取稳定的租金收入,Equinix和Digital Realty是北美最大的REIT。
高速光模块
将电信号与光信号互转,实现服务器间高速传输,400G/800G光模块是AI数据中心网络的关键核心器件,中国厂商全球份额第一。
以太网交换机
在AI数据中心内通过高性能以太网交换机互连GPU集群,Arista Networks凭借低延迟、高吞吐交换机成为AI时代数据中心网络的最大受益者。
光通信基础设施
涵盖光纤光缆、光传输设备和光学代工,构建AI数据中心之间的高容量骨干网络,支撑AI推理的全球快速分发和多活容灾。
AI服务器
组装搭载GPU和高速网络的AI服务器,超微电脑(SMCI)以快速定制能力在此赛道领先,戴尔和HPE是传统大厂。
数据平台
提供PB级数据仓库和湖仓一体平台,是AI训练数据管理和特征工程的核心基础设施,Snowflake和Databricks是双雄。
商业模式
云计算:按用量收费,GPU实例价格远高于CPU,AI推高单位收入。 数据中心:3-10年长租约,空置率<5%,收入高度可预见。 软件平台:SaaS订阅或按用量计费,客户用量自然增长。
AI 产业价值分配
五层蛋糕利润占比
基础设施层利润拆解
仅次于芯片层,规模效应强。三大云厂商占公有云65%+,运营利润率高。数据中心长租约收入稳定,光模块因AI需求享受高增长。