(图片来源:Arm)
据相关消息,OpenAI正与软银旗下的Arm公司开展合作,共同研发一款新型CPU,旨在为其与博通联合开发的定制AI加速器提供有力补充。据The Information首次披露,此次合作将由Arm负责设计一款服务器级别的CPU,该CPU将成为OpenAI下一代AI机架的核心组件,这或许是Arm迄今为止进军数据中心市场最具雄心的一步。
此次涉及的芯片是OpenAI内部AI加速器的关键部分,属于10月13日所宣布的与博通携手部署定制AI加速器和机架系统计划的一部分。这款系统级芯片(SoC)专为推理工作负载量身打造,预计将于2026年底投入生产,并在2026年至2029年间提供高达约10吉瓦的计算能力。据悉,这款由台积电制造的博通加速器已历经约18个月的研发周期。
据The Information报道,Arm在此次合作中扮演的角色远不止于提供架构蓝图。该公司近期已开始涉足CPU的设计与制造领域,而不再局限于向合作伙伴授权内核技术,并将与OpenAI的合作视为拓展其服务器业务版图的宝贵契机。据知情人士透露,OpenAI计划将Arm设计的CPU不仅应用于其博通芯片中,还将拓展至英伟达和AMD的系统之中。
报道还指出,OpenAI的CPU计划有望为Arm带来高达数十亿美元的潜在收入,这对于持有Arm近90%股份且大量抵押其股权的软银而言,无疑是一笔意外之财。软银还承诺将向OpenAI的数据中心建设投入数百亿美元,并从这家初创企业购买AI技术,以助力加速Arm自身的芯片开发进程。
OpenAI表示,结合此前与英伟达和AMD达成的协议,其芯片计划目前总计规划了高达26吉瓦的数据中心容量。若一切顺利,OpenAI的定制芯片部署总装机容量或将达到分析师所预估的,与英伟达和AMD采购共同所需的超过1万亿美元的建设和设备成本。
OpenAI与博通合作开发的芯片,还将使ChatGPT开发者在与英伟达的价格谈判中占据更有利的地位。目前,英伟达的H100和即将面世的Blackwell GPU仍在AI训练市场占据主导地位。倘若博通和台积电能够成功扩大生产规模,OpenAI的推理芯片或许能为过去一年中大部分时间困扰AI实验室的GPU供应紧张问题提供部分缓解。
欢迎在谷歌新闻上关注Tom's Hardware,或将我们设为首选资讯来源,以便在您的资讯流中及时获取我们的最新新闻、深度分析与专业评测。