半导体IP领域巨头Arm下场推出实体芯片了。
美国当地时间3月24日,Arm宣布首次将产品矩阵延伸至量产芯片产品领域,首发产品为Arm AGI CPU。这是一款由Arm自主设计、面向AI数据中心的CPU芯片。根据介绍,首批芯片产品将在今年内陆续推出。
一直以来,Arm的常规商业模式都是推出半导体IP给芯片设计厂商(如高通和联发科)、云服务厂商(如亚马逊云、阿里云)等,由后者根据需要对这些IP进行芯片设计工作,再交由晶圆代工厂进行制造。
这令Arm长期以来的收入构成主要为授权费(license)和版税(royalty),其此前并未真正推出实体芯片产品。此番真正激发Arm正式下场推出芯片的,来自于AI浪潮翻涌。
Arm首席执行官Rene Haas在演讲环节就指出,AI时代CPU芯片正承担核心计算任务。尤其是近几个月以来,以Open Claw“龙虾”为代表的智能体(Agent)兴起,涉及大量调度类计算工作,这就需要由CPU芯片来完成,这也是加速芯片(如GPU芯片)无法替代的能力。
自此,Arm在原有IP、计算子系统(Compute Subsystems,CSS)业务基础上,新增Arm自主设计的芯片产品。Meta是其早期合作伙伴及联合开发者,首批还官宣了一系列合作方和OEM代工方。
当然,在IP领域发展多年的Arm如何扎根CPU芯片市场,又计划如何与x86既有阵营竞争?在受访环节,高管团队进行了解答。
CPU新机遇
自Open AI将ChatGPT推入市场至今,全球公认需求旺盛的领域是GPU及其产业链相关芯片。这也导致英伟达业绩和股价持续上升,一度成为美股市值新“王”。
这令大众忽略了一个事实:CPU芯片依然不可或缺。
Rene Haas在演讲中分析道,大语言模型爆发之前,传统云计算使用的流程是:输入指令—得到搜索结果,CPU就承担了其中核心计算任务。
加入AI能力后,开始转变成通过人们的手机、电脑等移动设备输入提示词给云端,云端将其转化成词元(token)输送给AI数据中心,再由数据中心内的加速器芯片生成对应的计算结果,在这些流程中,数据中心CPU芯片就负责调度、管理,将token返回给用户。
这意味着CPU芯片在云端和AI数据中心中仍将担任重要角色。根据他预测,每吉瓦(GW)算力的数据中心大约需要3000万CPU核心(cores),这包括AI集群主节点、加速器、专用机架设备等。
而在最近几个月,“龙虾”热正引发智能体爆发式增长。Rene Haas指出,智能体无需休息可以全时段运行,其发起请求的速度远超人类。因此预计智能体发起的查询会是人类token需求量的15倍甚至更多。
海量的智能体工作负载发出,会让数据中心不堪重负,这就需要越来越多的CPU芯片来平衡智能体负载。而智能体的工作流就涉及大量调度类计算,这是CPU芯片的优势所在,也是GPU等加速芯片无法替代的。
基于此,接受包括21世纪经济报道在内的媒体采访时,Arm云AI事业部执行副总裁Mohamed Awad介绍道,选择将自研CPU芯片定位解决Agentic AI的工作负载,正是源于客户需求。
由于智能体运行需要增加CPU芯片数量、规模累积后需要更高性能,但数据中心又面临能耗限制,多重因素叠加,令市场上对这类符合要求的芯片存在明显缺口。
而Arm在与众多超大规模云服务商探讨合作过程中,后者就提出,Arm此前提供IP和CSS的方案,并不能很好解决问题,希望能够获得更优的解决方案,最终Arm选择推出CPU芯片。
Mohamed Awad分析,代理式AI工作负载需要在大规模场景下实现持续稳定的性能输出。Arm AGI CPU正是为此设计。Arm的参考服务器采用1OU双节点设计,每台刀片服务器中集成两颗CPU芯片,并配备独立内存与I/O,共计272个核心。
这些刀片服务器可在标准风冷36千瓦(kW)机架中满配部署,30台刀片服务器可提供总计8160个核心。此外,Arm还与Supermicro合作推出200千瓦(kW)液冷设计方案,可容纳336颗Arm AGI CPU,提供超过45000个核心。
据介绍,在该配置下,Arm AGI CPU可实现单机架性能达到最新x86系统的两倍以上,每吉瓦AI数据中心算力的资本支出(CAPEX)节省100亿美元。
争夺战场
Arm此番推出CPU芯片,显然直指抢占x86沉淀多年的战场。
Rene Haas受访时表示,Arm认为该款芯片预计未来有望在数据中心市场与x86争夺份额,预计产品将被广泛采用。
根据介绍,Arm AGI CPU是旗下数据中心芯片产品线的首款产品,现已开放订购。其后续产品规划也已确认,该产品线将与Arm Neoverse CSS产品路线图并行推进。按照规划,2027年将推出第二代Arm AGI CPU芯片。
此番也并非Arm独立努力,其背后已经有一众合作方。Meta就是首款芯片的早期合作伙伴及联合开发者。据悉,Meta利用该代理式AI CPU优化其全系应用的基础设施,并与其自研的Meta训练与推理加速器(MTIA)协同部署,从而在大规模AI系统中实现更高效的编排与调度。双方承诺将围绕Arm AGI CPU的多代芯片产品展开长期深度合作。
此外,Arm还确认与Cerebras、F5科技、OpenAI、SAP、SK电讯等企业达成进一步商务合作,计划将这款芯片部署在加速器管理、控制平面处理、云与企业级API、任务与应用托管等领域。
在商业化方面,Arm也与联想、广达电脑、Supermicro(超微电脑)等OEM或ODM厂商合作,计划在今年下半年逐渐落地。
当然更受关注的是,在CPU芯片市场看起来还算“新人”的Arm,如何与x86架构多年的软件生态积累竞争?
Mohamed Awad受访时指出,如果说4—5年前,Arm在数据中心软件支持方面的确与x86架构生态存在差距。但在这些年间,包括谷歌、亚马逊云、Meta等头部云服务厂商以及英伟达和多家中国公司,都在积极投资数据中心相关软件生态系统,这也逐渐丰富了Arm在该领域的软件包,目前已经有不少AI软件先天采用Arm架构,目前有超过1万家公司的数据中心在使用Arm旗下产品,这是Arm在当前数据中心软件生态方面的信心。
当然,目前为止,手机类业务依然是Arm业务的核心支撑。公司发布的2025财年财报显示,手机AP目前依然为公司版税(royalty)业务贡献45%收入构成。
随着Arm进入实体芯片市场,Rene Haas预计,5年后的2030年,数据中心CPU芯片市场的总潜在市场(TAM)规模约为1000亿美元,其中Arm有望获得150亿美元营收;此外其持续发展的IP业务预计到2030年将达到百亿美元规模。
Arm此举也获得了资本市场认可,截至记者发稿,Arm美股大涨超15%。
从行业视角看,作为长期处于产业链上游的IP巨头,Arm向下游延伸,不仅反映了AI算力需求激增背景下,核心芯片在架构与系统层面进行深度协同的迫切性,也凸显出数据中心市场正从性能竞争,转向围绕能效、规模与整体系统优化的综合博弈。
