比英伟达芯片更好,谷歌前TPU员工创业公司MatX正在受到关注。
之所以注意到这家公司,这还得感谢宣传委员卡帕西(没错,MatX最新B轮5亿美元融资他也投了)。
卡帕西表示,参考英伟达4.6万亿美元市值,MatX正在向“当今最有趣、回报也最高的智力难题”发起挑战。
MatX团队非常出色,我很荣幸能参与其中,并祝贺他们获得融资!

当然也不光是卡帕西背书,MatX也有自己的“杀手锏”——一条不同于当下主流AI芯片路线的技术选择。
过去几年,AI芯片阵营大致分成两派:
一派以英伟达、谷歌为代表,重押高带宽内存HBM,优先解决大规模训练和吞吐问题;
另一派则以Cerebras Systems(年初还获得了AMD投资)为代表,强调片上SRAM(静态随机存储器)和低延迟,主打推理场景。
而MatX的态度是:小孩子才做选择,成年人当然是都要。
在他们看来,真正的胜负手不在于单点技能拉满,而在于能否在同一颗芯片里,把“训练级吞吐”和“推理级低延迟”同时做好——尤其是在长上下文、Agent循环这些更复杂的真实工作流中。
而且不止说说而已,据MatX创始人透露,他们目前正在打造一款“LLM专用芯片”MatX One:
其吞吐量远高于其他任何芯片,同时延迟也最低。

所以,MatX到底是谁?它真能对霸主英伟达构成威胁吗?
咱这就接着瞧,接着看。
关于MatX的第一印象,谷歌二字始终是绕不开的。
没办法,谁让两位创始人都来自谷歌TPU团队。
创始人兼CEO Reiner Pope,身上有着很明显的“软件”标签。

2012年加入谷歌时,主要负责谷歌地图的部分网页开发,并逐渐成为5人团小主管。
后来又设计并参与了谷歌大型机器学习系统Sibyl的开发,该系统曾为YouTube、Gmail、Android等提供重要支撑,直到2017年被更灵活、支持深度学习的TensorFlow Extended(TFX)平台逐步取代。
也是在这一年,他开始接触芯片设计——加入谷歌内部项目孵化平台“登月工厂”(Moonshot Factory),并专注于下一代计算的架构设计。
自此,他逐渐从“做系统的人”,变成了“理解模型与硬件如何协同的人”。
从2019年起,他开始担任谷歌机器学习芯片的技术主管兼架构师,连续参与了两代ML芯片的设计,并成为第二代芯片的主要负责人之一。
后来更是参与了谷歌当时规模最大的模型——PaLM的训练,而且是PaLM的软件/硬件效率负责人。
可以说,Reiner Pope是早期谷歌TPU软件栈的重要成员之一,而且不是单纯做芯片电路的人,他懂得如何让芯片真正跑起大模型。
创始人兼CTO Mike Gunter,则刚好有着很明显的“硬件”标签。
而且他属于那种从底层逻辑电路一路打到系统架构的老派硬件工程师。

加入谷歌前,他就已经是一名连续创业者——早在2000年便联合创办无线通信芯片公司Gossett and Gunter,后来公司被谷歌收购,他也随之加入谷歌。
而在谷歌,他做过无线通信、多天线系统、ASIC设计,甚至是谷歌内部第一位逻辑设计师、第一位被“正式付薪写 Haskell”的工程师。
从2008年开始,他便主导了谷歌第一个硬件加速项目,该项目最终把谷歌计算密集型任务的性价比提高了10倍以上。
再到后来,他和Reiner Pope的交集开始变多——
Sibyl系统的设计和实现有他、和Reiner Pope几乎同一时间加入Moonshot Factory、ML芯片项目有他(任首席工程师)等等。
总之,如果说Reiner Pope是在模型规模爆炸时代,解决“模型如何高效跑在芯片上”的问题,那Mike Gunter更像是在更早阶段思考“芯片应该如何为未来的计算形态而设计”。
他俩合起来几乎把“软硬全栈”走了一遍。一个站在模型效率前线,参与过PaLM级别的训练;另一个站在芯片最底层,从晶体管和微架构一路搭到系统。
而软硬结合这一点,也正是MatX身上很大的一个看点,体现在正在设计的MatX One芯片上即为——
MatX One芯片基于一种可拆分的脉动阵列(splittable systolic array)架构。该架构既继承了大型脉动阵列在能效和面积效率方面的优势,又能够在尺寸更小、形状更灵活的矩阵计算中保持较高的利用率。
这款芯片将SRAM优先设计(SRAM-first designs)的低延迟特性与HBM(高带宽内存)支持长上下文处理的能力结合在一起。在此基础上,再配合一套全新的数值计算方案(numerics设计),使其在大语言模型上的吞吐量超过目前所有已公布的系统,同时在延迟方面达到SRAM-first设计的水平。

为便于理解,我们可以结合卡帕西的观点来解释。
在卡帕西看来,随着token用量的激增,如今大家面临的问题是——
怎么把“算力”和“内存”调配到刚刚好,才能让大模型更快、更便宜地吐出更多token?
很多人没有意识到,目前市面上两种主流的芯片路线都有其局限性:
以英伟达为代表的HBM路线,其核心逻辑在于“大模型训练是带宽游戏”,即模型越大、参数越多、上下文越长,就越需要把权重和激活值在芯片之间高速搬运。
于是堆HBM、堆带宽、堆互连,成为主流解法,它解决的是吞吐问题。
而以Cerebras Systems为代表的片上SRAM路线,其核心逻辑在于“推理时代的关键不是带宽,而是响应速度”。
于是把尽可能多的数据放在片上SRAM中成为解法,如此一来便能减少外部访存,降低单次查询延迟,后者解决的是延迟问题。
但问题在于,今天的大模型,其训练和推理不再是泾渭分明的两个世界——
如果只强调HBM带宽,延迟难以下降;如果只强调片上SRAM,规模又难以扩展。
所以卡帕西就问了,是否存在一种更优的物理基板,使计算与内存的比例从一开始就为大模型而设计?
MatX的回答是:与其在既有架构上打补丁,不如从架构层面重构算力与存储的关系。
没错,就是从零开始。
2022年从谷歌离职创办MatX,二人便下定决心要从零打造一款更优秀的芯片——
目标是设计一条全新的、具有竞争力的硬件产品线,融合其他芯片制造商使用的两种截然不同的方法。
MatX试图证明,未来的AI芯片不必在“速度”和“容量”之间痛苦权衡,因为真正的软硬结合,可以让芯片同时拥有两者的优势。按Reiner Pope的话来说就是:
实际上可以在同一个产品中同时做到这两点,而且这样会得到一个更好的产品。
而正在孕育的MatX One,毫无疑问便承载着这一理念。
一旦成功,同时实现更高的吞吐量+更低的延迟便意味着——
在同样的预算下,你可以训练更大的模型、跑更长的上下文、支撑更复杂的Agent循环,同时让每一次用户交互都更快地得到响应。
这正是卡帕西所说的“设计最优物理基板,编排内存与计算,以求最快、最便宜地获取token”的现实注脚。
显而易见,从团队到理念到产品,MatX已经做足了准备。
而对这样一支团队,市场也给予了足够的注目和支持。
截至目前,这家公司已经获得6亿美元公开融资、估值已达数十亿美元。
MatX官网显示,2025年3月这家公司获得了1亿美元A轮融资,领投方为Anthropic早期投资者Spark Capital。
顶级量化Jane Street Group、知名投资人Daniel Gross(早期投资了Figma/Notion等)、Nat Friedman(GitHub前CEO)、Adam D‘Angelo(Quora联创兼CEO)等均参与投资。
当时Reiner Pope还对MatX做了一个阶段性总结:
两年内,我们在机器学习数值计算、芯片设计和实现、软件和系统设计等方面的所有技术投入都得到了验证,并建立了所有必要的合作伙伴关系,从而开发出了我们的芯片。
凭借这一轮投资,我们现在拥有足够的资金将我们的系统推向市场。

而在快速发展近一年后,规模接近100人的MatX这次又获得了最新5亿美元(约合人民币34亿元)B轮融资,而且阵容还在增加。
具体而言,B轮领投方变成了两家:Jane Street和Situational Awareness LP。
原有投资方Spark Capital、Triatomic Capital、Harpoon Ventures等继续跟投,而且还新增了Dwarkesh Patel、卡帕西、 Stripe联创兼CEO Patrick Collison及其弟弟等人。
Reiner Pope继续总结陈词:
创立MatX的初衷是,我们认为最适合LLM的芯片应该从根本上进行设计,并深刻理解LLM的需求及其发展趋势。为了打造这样一款芯片,我们甚至愿意放弃小模型性能、低容量工作负载,以及编程的便捷性。
可以说,此举已经将人们对MatX One的好奇心拉满了。
内部测试表明,根据每平方毫米的计算性能指标,其芯片性能可以超越英伟达即将推出的Rubin Ultra产品。
据悉MatX将与台积电展开合作,目标是今年完成芯片的全部设计,并于2027年开始出货,主要销售对象为少数几家领先的人工智能实验室。
MatX表示,这笔融资将帮助公司预留产能和零部件,以确保一旦准备就绪就能迅速发货。
这一轮融资让我们几乎与那些拥有巨额资金的公司站在了同一起跑线上。
联想到刚被老黄打包收购的Groq,我们实在想看MatX的未来。
毕竟这两家手上拿的剧本可太一致了——
同是谷歌TPU核心成员创业、同是要挑战英伟达芯片霸主地位。
结果呢,老黄甩出200亿美元就把Groq打包带走了——包括创始人和90%团队员工。
更别说MatX创始人兼CTO Mike Gunter还有被谷歌打包收购的经历……
只能说,如果MatX真做出了比英伟达芯片更好的东西,不说老黄有没有想法,谷歌可能也去争一争也不一定。
参考链接:
[1]https://x.com/karpathy/status/2026452488434651264?s=20
[2]https://www.bloomberg.com/news/articles/2026-02-24/ai-chip-startup-matx-raises-500-million-to-compete-with-nvidia?taid=699da2831348600001d29e78
