GPU云
专门出租高密度GPU算力,服务大模型训练和推理需求,是英伟达H100/H200算力最直接的二级市场。CoreWeave是代表性公司。
上游依赖
英伟达GPU、托管数据中心
服务下游
AI初创公司、独立AI实验室
赛道受益 AI 逻辑
AI初创公司和研究机构需要大量GPU算力来训练和微调模型,但自建GPU集群投资门槛极高。GPU云(GPU-as-a-Service)提供按需租用GPU算力的服务,降低了AI创业的硬件门槛。 因果链:AI创业爆发 → 大量公司需要GPU算力但无力自建 → GPU云提供弹性算力租赁 → CoreWeave、Lambda等GPU云快速崛起 → 获得大额融资(CoreWeave 2024年估值$190亿) GPU云与Hyperscaler的区别在于:更专注于GPU算力、更灵活的定价、更低的准入门槛。但规模和资金实力远不如Hyperscaler。
GPU云市场
~$100亿
2024年,快速增长
CoreWeave估值
$190亿
2024年融资后
GPU租赁毛利率
50-70%
取决于利用率
市场格局与竞争态势
GPU云是AI时代诞生的新赛道。CoreWeave是目前最大的独立GPU云提供商,2024年底已拥有超过10万颗NVIDIA GPU,微软是其最大客户。Lambda Lab专注于AI研究和推理场景。Together AI和Anyscale侧重于开源模型的推理服务。 传统云厂商(AWS、Azure、GCP)也提供GPU云服务,但独立GPU云在价格灵活性和GPU可用性上有优势(Hyperscaler经常GPU缺货)。 格局特征:高增长但盈利模型脆弱——GPU云本质是重资产租赁业务,需要大量前期投入采购GPU,利用率下降会迅速亏损。行业整合将不可避免。
主要厂商市场份额
关键变量与不确定性
核心驱动因素
主要不确定性
GPU云是典型的高增长高风险赛道。当GPU供不应求时利润丰厚,一旦GPU供给充足或AI需求放缓,利用率下降会导致巨额亏损。CoreWeave负债极高(为买GPU大量举债),如果AI资本支出周期转向,风险很大。目前大部分GPU云公司未上市。
代表性公司解读
CoreWeave(未上市/IPO筹备中)
最大独立GPU云,拥有超10万颗NVIDIA GPU。微软是最大客户,合同价值数十亿美元。2024年估值$190亿,IPO筹备中。高增长但高负债。
Crusoe Energy(未上市)
专注用废弃天然气发电为AI算力供能的GPU云。差异化在于能源成本优势和碳减排概念。与能源层有独特的交叉点。
本赛道其他公司(3个)
Nebius
NBIS从Yandex拆分出的AI基础设施公司,总部位于阿姆斯特丹,提供GPU云计算和AI训练基础设施服务,在欧洲和中东市场快速扩张。
甲骨文
ORCL甲骨文,全球领先的企业软件和云计算公司,OCI(Oracle Cloud Infrastructure)在GPU云和AI基础设施方面快速增长,是OpenAI的重要算力合作伙伴。
OVHcloud
OVH欧洲最大的独立云计算服务商,总部位于法国,提供公有云、私有云和GPU云服务,以数据主权和隐私合规为差异化优势。
所在产业链位置
产业链联动
上游直接采购AI算力芯片(NVIDIA GPU)和AI服务器。与数据中心赛道关联——GPU云需要托管在数据中心。与能源赛道也有关——GPU算力的电力成本是运营支出的大头。 下游服务AI模型开发者、初创公司和企业客户。与前沿大模型实验室赛道关系密切——很多模型公司依赖GPU云来训练模型。
相关赛道
下一步研究建议
数据中心
提供机柜托管和数据中心地产,从AI基建狂潮中赚取稳定的租金收入,Equinix和Digital Realty是北美最大的REIT。
AI服务器
组装搭载GPU和高速网络的AI服务器,超微电脑(SMCI)以快速定制能力在此赛道领先,戴尔和HPE是传统大厂。
超大规模云
AWS、Azure、谷歌云三巨头提供一站式算力、存储、网络云服务,是AI应用最主要的运行平台,正投入数千亿美元扩建AI数据中心。
数据平台
提供PB级数据仓库和湖仓一体平台,是AI训练数据管理和特征工程的核心基础设施,Snowflake和Databricks是双雄。
云原生运维
将AI推理能力下沉到距用户最近的边缘节点,大幅降低延迟和带宽成本,Cloudflare将自己定位为AI时代的边缘平台。
以太网交换机
在AI数据中心内通过高性能以太网交换机互连GPU集群,Arista Networks凭借低延迟、高吞吐交换机成为AI时代数据中心网络的最大受益者。