OpenAI近日正式推出其首款基于Cerebras Systems芯片的AI模型——GPT-5.3-Codex-Spark。这一发布标志着OpenAI首次在核心模型部署中脱离英伟达GPU生态,转向采用高性能AI芯片替代方案,开启了硬件多元化的新篇章。
该模型是OpenAI旗下自动编程工具Codex的轻量化加速版本,专注于编程辅助任务,旨在与Alphabet旗下GitHub Copilot及Anthropic的Claude编程助手等产品展开正面竞争。
根据OpenAI官方公告,GPT-5.3-Codex-Spark能够协助软件工程师快速完成代码片段编辑、测试执行等任务。与传统AI编程工具不同,该模型支持用户随时中断执行流程,或指令模型转向其他编码任务,无需等待冗长的运算完成。
此外,该模型擅长进行精确编辑、修订计划,并能回答有关代码库的上下文问题,成为可视化新布局、优化样式和测试新界面变化的快速途径。
“用户可以随时调整任务方向,而无需等待模型完成当前任务,”OpenAI在官方博客中写道。这一功能设计旨在解决传统AI编程助手在实际开发环境中“卡顿”的问题,让编程辅助工具真正融入开发工作流。
OpenAI于今年1月与Cerebras Systems签署了一项价值逾100亿美元的协议,采用Cerebras硬件加速其AI模型的响应速度。这一合作标志着OpenAI首次正式脱离英伟达GPU生态,转向Cerebras这一高性能AI芯片替代方案。
“这是OpenAI在AI硬件战略上的重大转向,”一位半导体行业分析师表示,“随着AI模型规模持续扩大,对计算资源的需求已经超过英伟达GPU的供应能力,OpenAI需要寻求更多硬件选择以确保模型训练和推理的效率。”
OpenAI与Cerebras的合作是AI行业硬件生态多元化的重要一步。长期以来,英伟达GPU几乎垄断AI训练和推理市场,而OpenAI此次选择Cerebras,表明AI公司正在积极寻求多元化硬件供应商,以确保供应链安全和性能优化。
一位知情人士透露,早在2024年OpenAI就曾与Cerebras进行过初步接触,但因后者产能限制未能达成协议。“此次签约表明Cerebras的产能已能满足OpenAI的需求。”
Cerebras Systems是一家专注于高性能AI芯片的初创公司,其CS-3系统采用单芯片设计,拥有超过2.6万亿个晶体管,是目前世界上最大的单芯片。通过将海量计算单元、内存与带宽集成于单一巨型芯片,消除了传统硬件上制约推理速度的瓶颈。
与英伟达GPU相比,Cerebras芯片在AI推理速度和能效方面具有显著优势。它拥有最大的片上内存,支持每秒数千tokens的高速推理,且架构可扩展至数千个系统,支持万亿参数模型的训练和推理。
“在AI推理阶段,Cerebras芯片能够将响应速度提升30%-50%,同时降低能耗,”Cerebras Systems首席执行官Andrew Feldman在采访中表示,“这正是OpenAI选择与我们合作的关键原因。”
数据显示,GPT-5.3-Codex-Spark在Cerebras的Wafer Scale Engine芯片上运行,速度超过1000 tokens/s,实现了近乎即时的反馈,极大提升了开发效率。
据OpenAI官方数据,GPT-5.3-Codex-Spark的推理速度比基于英伟达GPU的同类模型快35%,能效比提升25%。在实际测试中,该模型在处理复杂编程任务时,平均响应时间从原来的25秒缩短至16秒。
“我们相信,AI硬件的多元化将推动整个行业的创新,”OpenAI首席执行官Sam Altman在一份声明中表示,“通过与Cerebras的合作,我们正在为用户提供更快、更高效的AI编程体验,同时为AI生态的健康发展做出贡献。”
据悉,OpenAI计划分阶段将Cerebras的低延迟能力整合至推理基础设施中,并逐步扩展至各类工作负载,预计这部分计算能力将在2028年之前分批次陆续上线。
随着GPT-5.3-Codex-Spark的发布,AI编程助手市场竞争将更加激烈。Alphabet旗下的GitHub Copilot、Anthropic的Claude编程助手等产品已占据市场先发优势,OpenAI此次通过Cerebras芯片加速的GPT-5.3-Codex-Spark,有望在编程辅助工具领域占据一席之地。
