赛道受益 AI 逻辑
AI推理(模型运行)正在从云端向边缘设备(手机、PC、IoT设备、汽车)扩展。边缘推理的优势是低延迟、保护隐私、不依赖网络。Apple Intelligence、高通AI引擎和NVIDIA Jetson是代表性的边缘AI方案。 因果链:AI应用对实时性和隐私的要求 → 云端推理延迟和带宽成本过高 → AI推理向边缘设备迁移 → 需要专用的边缘AI芯片和轻量化模型 → 高通、联发科、Apple在手机AI芯片领域竞争 → NVIDIA Jetson在工业和机器人边缘AI领先 2024年Apple Intelligence、Windows Copilot PC的发布标志着边缘AI从概念走向落地。手机SoC中NPU(神经网络处理单元)性能成为新的竞争焦点。
边缘AI芯片市场
~$200亿
2024年,含手机/PC/IoT
AI PC渗透率
~20%
2024年新出货PC
AI手机渗透率
~30%
2024年新出货手机
市场格局与竞争态势
边缘推理市场按终端分为几个维度:手机端(高通Snapdragon、联发科天玑、Apple A/M系列)、PC端(Intel、AMD、Qualcomm Snapdragon X)、IoT/工业端(NVIDIA Jetson、Intel Movidius)。 高通在手机和PC端边缘AI芯片中布局最广——Snapdragon 8 Gen 3的NPU能运行70亿参数的本地LLM。Apple的Neural Engine在iPhone和Mac上提供了最好的端侧AI体验。NVIDIA Jetson在机器人和工业视觉领域是标准方案。 格局特征:边缘AI目前最大的挑战不是硬件而是'Killer App'——消费者还没有感受到足够强的边缘AI需求来推动大规模换机。
主要厂商市场份额
关键变量与不确定性
核心驱动因素
主要不确定性
边缘推理是一个长期确定性强但短期缺乏催化剂的赛道。AI手机和AI PC概念已经推出,但消费者付费意愿不强。高通Snapdragon X在PC市场的表现低于预期。长期看机器人和自动驾驶的边缘AI需求更有确定性。
代表性公司解读
所在产业链位置
产业链联动
边缘推理与AI算力芯片赛道互补——一个负责云端训练,一个负责端侧运行。边缘推理芯片同样依赖晶圆代工(台积电)和先进封装。 下游对接所有需要端侧AI能力的应用:自动驾驶、工业机器人、AI手机、AI PC等。与开源大模型赛道关系紧密——端侧运行的通常是开源的小模型(如LLaMA 7B/13B的量化版本)。
相关赛道
下一步研究建议
前沿大模型
研发和运营最顶尖的通用大语言模型,OpenAI的GPT-4o和Anthropic的Claude是当前行业标杆,是整个AI产业的能力来源。
开源大模型
开放模型权重和代码,让任何开发者可免费使用和微调,Meta的Llama系列推动AI能力快速商品化,降低行业进入门槛。
翻译与语言
提供高质量机器翻译和本地化服务,AI全球化加速翻译需求,DeepL凭借质量优势在专业场景领先谷歌翻译。
机器人模型
让机器人理解自然语言指令并操控物理世界,是AI走向物理场景的核心能力突破,Figure AI、Covariant是重要参与者。
训练平台
管理大规模模型训练任务、GPU资源调度和实验记录,提升AI研究团队的研发效率和复现能力。
数据标注
为模型训练提供高质量人工标注数据和合成数据,数据质量直接决定模型能力上限,Scale AI是行业领军。