【中信建投:Agentic AI重塑通用计算价值】
从预训练到强化学习与Agentic AI,人工智能的范式演进推动了CPU需求量的显著提升。在Agent场景中,CPU的并发处理、内存带宽与任务调度能力直接决定了Agent的端到端响应延迟与任务吞吐效率。当Agent并发量超过传统CPU承载上限时,会出现请求队列堆积、工具调用超时、多轮推理循环延迟飙升等问题,CPU成为系统性能的核心制约因素。过去在算力产业链价值分配上CPU被持续边缘化,而随着AgenticAI带来的CPU需求激增,叠加上游涨价与产能受限,导致今年以来全球CPU市场涨价及缺货持续加剧。
在不同类型智能体任务中,CPU在运行耗时和能耗占比上相较于GPU占据较高比重,成为Agent运行的主要瓶颈。根据Georgia Tech与Intel于联合发布的研究成果:1)运行耗时:在RAG、联网搜索Agent、重度科研任务这三类Agent任务中,CPU耗时占比均超过了总耗时的80%;2)能耗占比:在中大批量情况下,以上任务的CPU能耗占比最大分别达到了61%、57%、60%;3)吞吐效率:GPU具备极强的并发扩展能力,而CPU随着并发规模的增长其平均延迟显著提升。同时GPU计算能力可随Infra技术迭代大幅优化,而CPU一方面无法享受AI算法的量化与稀疏化红利,另一方面CPU运算具有严格的因果串行逻辑,计算资源难以被优化和压缩,更加依赖硬件性能提升和Capex扩容。
Agentic AI不仅带来了AI服务器内CPU数量的增加,同时也催生出庞大的独立CPU服务器计算节点的需求。在AI服务器内中,GPU/CPU配比目前为8:1到8:2,在GB200/Vera-Rubin等新架构下配比提升至2:1;同时CPU Sandbox集群(新增需求)作为调度中枢,专门负责运行Agent框架、沙箱环境、代码执行,将成为未来CPU的主要增量,目前微软打造的Fairwater下一代数据中心已经采用GPU与CPU集群分离设计。Arm CEO Haas指出,传统AI负载在每GW的数据中心容量下约需3000万个CPU核心,而在Agentic AI时代CPU核心需求将激增至每GW一亿两千万颗。同时在Intel在2026Q1财报电话会上表示未来的CPU与GPU配比将从现在的8:1提升至1:1。
投资策略:1)CPU:随着人工智能范式向智能体和强化学习演进,推动CPU市场总量大幅扩容及规格代际提升,X86与Arm厂商均受益市场需求的爆发;2)CPU数量的增加将系统性地拉动内存接口芯片(RCD、MRCD/MDB)的需求基数,包括PMIC、SPD Hub等器件用量也将随之实现同比例增长;3)CPU需求增加将拉动本土服务器OEM/ODM厂商的出货量。
来源:中信建投