算力即收入?奥特曼亲口承认:9亿用户难敌谷歌“致命一击”,1.4 万亿美元砸向算力,“GPT-6”或明年 Q1 亮相
4 小时前 / 阅读约47分钟
来源:36kr
奥特曼认为谷歌是AI领域最大威胁之一,OpenAI不与谷歌正面竞争,而是重做“AI原生软件”,未来将发布“按人定制”的升级,并构建“AI平台”。

奥特曼最近一次对外露面时,罕见地把话说得很直:“谷歌依然是最大的威胁之一,他们太强了。坦白讲,如果他们在 2023 年就认真出手,我们当时可能会非常难受;在我看来,他们本来就有能力把我们直接击碎。”

而就在不久前,谈到 Gemini 3 的冲击时,他还表示:“它对我们指标的影响,并没有我们担心的那么大。”

不过,奥特曼的愿景并不是在谷歌最擅长的领域与之正面竞争。谷歌的路线更像是把 AI 塞进现有的一切:搜索、Gmail、地图、YouTube……几乎每一个入口都在“加一层 AI”。奥特曼则认为,生成式 AI 终将改变我们使用软件的方式,关键不在于给旧软件打补丁,而在于重做一套“AI 原生软件”。

在这套逻辑里,他最在意的不是“把 AI 接到多少产品上”,而是先把用户留住,并让他们形成依赖:先让用户进门,向他们展示能力边界,再通过记忆、个性化和深度定制把“粘性”一点点加固。

他用“牙膏品牌”打了个比方:“从某种意义上说,AI 就像牙膏。大多数人一旦选定一个品牌,就会一直用下去;每次去超市都顺手拿同一个,根本不会多想。”而 ChatGPT 已经拥有 8 亿、甚至可能逼近 9 亿的用户;一些独立报告也显示,它在用户使用时长等指标上仍处于领先位置。

除了“红色警报”和谷歌威胁,这次访谈还抛出了几颗更“刺”的钉子:所谓的GPT-6 不急着来,下一步反而更像“按人定制”的升级,大约会在明年 Q1 亮相;OpenAI 口中的“云”,不是要去当第二个 AWS,而是想把企业买 token、跑 agent、托管数据的需求打包成一套“AI 平台”。这些判断拼在一起,构成了 OpenAI 对模型、产品、基础设施和商业化路径的一次系统性表态。

本文翻译整理自 Alex Kantrowitz 主持的一期播客节目。

1

如果谷歌认真过:OpenAI 早就被碾碎了

Alex Kantrowitz:OpenAI 已经成立 10 年了,ChatGPT 才三岁,但竞争已经在明显加剧。最近这段时间,外界的感觉是 OpenAI 总部处于一种“红色警报”状态。Gemini 3 发布之后,你放眼望去,到处都是试图削弱 OpenAI 优势的公司。而这是我第一次感觉到,这家公司似乎不再拥有一个非常明确的领先优势。所以我很好奇,你怎么看 OpenAI 会如何走出当下这个阶段?

Sam Altman:先说“红色警报”这件事吧。我们把这类情况视为相对低风险、但需要经常启动的状态。我认为,在潜在竞争威胁出现时,保持一点偏执、迅速行动,其实是件好事。过去我们也遇到过类似情况,比如今年早些时候 DeepSeek 出现的时候,当时也启动过一次“红色警报”。我觉得保持一点警惕是好的。

Gemini 3 至少到目前为止,并没有产生我们原先担心的那种影响。但它确实像 DeepSeek 一样,暴露了我们在产品和策略上的一些薄弱点,而这些问题我们正在非常快速地解决。我不认为我们还会在“红色警报”状态下停留太久。历史上看,这种状态通常持续六到八周。能启动它我反而感到高兴。

就在今天,我们刚刚发布了一个新的图像模型,这是一个非常棒的进展,也是消费者一直非常想要的东西。上周我们发布了 5.2 版本,反馈极其积极,增长速度也非常快。接下来我们还会发布一些其他新东西,同时也会持续做一些改进,比如提升服务速度。

我的判断是,未来很长一段时间里,我们可能每年会启动一次,最多两次类似的“红色警报”。这本质上就是确保我们在这个领域里能够持续取胜的一部分。当然,也会有很多其他公司做得很好,我也为他们感到高兴。但 ChatGPT 依然是市场上遥遥领先的聊天机器人,而且我预期这种领先优势会随时间扩大,而不是缩小。

模型本身在各个地方都会变得越来越好,但无论是对消费者还是企业用户来说,大家选择一个产品的原因,远不止模型能力本身。我们其实已经预料到会出现今天这样的竞争局面,所以一直在努力打造一个完整、连贯的产品体系,确保我们成为人们最想使用的那个产品。

我认为竞争是好事,它会推动我们变得更好。我相信我们在聊天产品上会做得很好,在企业市场也会做得很好。未来几年里,我也期待我们在其他全新的产品类别中同样能表现出色。

我觉得人们其实非常希望只使用一个 AI 平台。就像在个人生活中,你用的是一部手机,大多数时候你也希望在工作中用同样的那一部。我们正在 AI 上看到同样的趋势。ChatGPT 在消费者市场的强势,正在非常明显地帮助我们赢得企业市场。当然,企业需要不同的功能,但人们会想:“我知道 OpenAI,我也知道怎么用 ChatGPT 这个界面。”

所以我们的策略很简单:打造最好的模型,在此基础上构建最好的产品,并且拥有足够的基础设施去支撑大规模服务。

Alex Kantrowitz:确实存在一种“先发优势”。今年早些时候,ChatGPT 的周活跃用户大概在 4 亿左右,现在已经到了 8 亿,报道中甚至说接近 9 亿。但另一方面,像 Google 这样的公司也拥有巨大的分发优势。所以我很好奇你的看法:如果模型最终趋同,那么真正重要的会是什么?是分发能力?是应用构建能力?还是我还没有想到的其他因素?

Sam Altman:我并不觉得“商品化”是一个恰当的框架来理解模型。未来一定会存在这样的情况:不同模型在不同领域各有专长。对于日常聊天这样的普通用例,可能会有很多非常不错的选择;但在科学发现等领域,你会希望使用那种真正站在前沿、为科学深度优化的模型。

因此,模型会有不同的优势。我认为,最大的经济价值,仍然会由处在前沿的模型创造,而我们计划始终领先于那个前沿。我们也非常自豪地认为,5.2 是目前世界上最强的推理模型,是科学家取得最多进展的模型。同时,我们也为企业客户的反馈感到骄傲——他们认为这是完成企业各类任务时表现最好的模型。

当然,会有我们在某些领域领先、在另一些领域稍微落后的时候。但整体上来看,我认为“最智能的模型”即便在一个免费模型可以满足大量基础需求的世界里,依然会拥有巨大的价值。

产品本身非常重要,分发和品牌也非常重要。以 ChatGPT 为例,个性化是一个极具粘性的因素。人们非常喜欢模型随着时间推移逐渐“了解自己”,你们会看到我们在这方面持续加码。用户和这些模型之间,会产生一些非常深刻的体验,并且会将这些体验与产品本身强烈地绑定在一起。

我记得曾经有人跟我说,人这一辈子大概只会选一次牙膏,然后就一直用下去——至少大多数人是这样。ChatGPT 也是类似的情况。人们会有一次“魔法时刻”。医疗健康是一个很典型的例子:有人把血检结果或者症状输入 ChatGPT,然后发现了问题,去看医生后真的被治好了。对这些用户来说,粘性是极高的,更不用说再叠加上个性化能力。

产品层面还有很多事情。我们最近刚发布了浏览器,我认为这为我们指向了一种新的、非常有潜力的形态。设备还要更晚一些,但我对此非常期待。

在企业市场,竞争优势的构成方式可能会有所不同,但逻辑是相似的。就像个性化对个人用户非常重要一样,对企业来说,也会存在一种“企业级个性化”:一家公司会与我们这样的公司建立长期关系,把自己的数据接入进来,然后运行来自不同厂商的各种 agent,确保信息被以正确的方式处理。我预计这同样会非常有粘性。

很多人仍然把我们主要看作一家消费者公司,但实际上我们已经拥有超过一百万的企业用户,而且我们会在企业市场上持续深耕。API 的采用速度也极其迅猛,今年 API 业务的增长速度甚至超过了 ChatGPT 本身。所以企业这块,从今年开始,真的在发生。

Alex Kantrowitz:我想再回到刚才那个问题:如果不是“商品化”,而是说在日常使用层面上,模型对普通用户来说感觉差不多。那么当 ChatGPT 和 Gemini 在日常体验上趋同时,Google 那种巨大的分发优势会构成多大的威胁?毕竟 Google 可以通过无数入口推送 Gemini,而 ChatGPT 需要为每一个新用户而战。

Sam Altman:我认为 Google 依然是一个巨大的威胁,它是一家极其强大的公司。如果 Google 在 2023 年真的认真对待我们,我们当时可能会处在一个非常糟糕的境地,他们是有能力彻底压制我们的。

但那时他们在 AI 上的产品方向并不完全正确。他们也启动过自己的“红色警报”,但并没有真正重视。现在大家都在搞“红色警报”。

另外,Google 拥有整个科技行业里可能是最好的商业模式之一,我认为他们会非常谨慎,不愿轻易放弃这一点。我可能也会看走眼,但我并不认为把 AI 简单“加”进搜索框里,会像彻底重新构想一种 AI 优先的产品那样成功。

这其实是一个更广泛的趋势:把 AI 嵌进旧有模式里,效果通常不如从一开始就围绕 AI 重新设计。这也是我们为什么想做消费者设备的原因之一,这个逻辑在很多层面上都成立。

如果你把 AI 加进一个即时通讯应用,让它帮你总结消息、草拟回复,那确实是好了一点,但那并不是终极形态。真正的终局应该是:一个足够聪明的 AI,作为你的 agent,去和其他人的 agent 交流,判断什么时候该打扰你、什么时候不该打扰你,哪些决策它可以自行处理,哪些必须来问你。搜索、办公套件也是同样的道理。

我怀疑这一切会比我们想象中花更长时间,但我相信,在主要产品类别中,我们最终会看到完全围绕 AI 构建的新产品,而不是在旧产品上“打补丁”。这恰恰可能是 Google 的一个弱点,尽管它拥有巨大的分发优势。

2

聊天框赢了三年,但真正的战争在“界面重构”

Alex Kantrowitz:我和很多人讨论过这个问题。ChatGPT 刚发布时,我记得 Ben Thompson 说过,你可能并不应该把 AI 塞进 Excel,而是应该重新想象你是如何使用 Excel 的。比如,你上传数据,然后直接“和数据对话”。后来大家在实际开发中发现,这背后还是需要一个后端系统。那么问题就变成了:你是不是先构建一个新的后端系统,再通过 AI 去交互?如果是这样,为什么不能直接叠加在现有系统上?

Sam Altman:你当然可以叠加,但我每天花大量时间在各种消息应用里:邮件、短信、Slack……我觉得这本身就是一个错误的界面。你可以在上面加 AI,让它稍微好一点,但我更希望的是,早上我可以直接对 AI 说:今天我想完成哪些事情,我在担心什么,我在思考什么,我希望发生什么。我不想一整天都在给人发消息,我不想让你总结它们,我也不想看一堆草稿。能处理的事情你就自己处理。你了解我,了解这些人,也知道我想达成什么目标。每隔几个小时,如果有必要,再批量给我更新。这和现在这些应用的工作流是完全不同的。

Alex Kantrowitz:我原本想问你 ChatGPT 在未来一年、两年里会变成什么样子。说实话,我原本以为,到现在这个阶段,ChatGPT 的形态应该已经发生更大的变化了。你当时预期是什么样的?

Sam Altman:我也说不上来。我只是觉得这个聊天界面不会走这么远。最早它只是作为一个研究预览被放出来,根本没打算成为一个产品。虽然现在看起来好看了一些,但整体上和最初差别不大。我们知道文本聊天界面很好用,人们已经习惯了像给朋友发消息一样交流。但我原以为,如果它真的会成为一个如此庞大、被用于如此多真实工作的产品,那这个界面本身应该会演进得更多一些。

我现在依然认为它应该继续进化。但我低估了这种“通用性”界面的力量。我认为未来 AI 应该能够为不同任务生成不同的界面。如果你在处理数据,它就应该用合适的方式展示数据,并让你以不同方式交互。我们现在在 Canvas 等功能里已经看到了一点苗头,但还远远不够。它应该更具交互性,而不是简单的来回对话。你围绕一个对象持续思考,它就应该持续更新。

它也应该随着时间变得更加主动,理解你当天想完成什么,在后台持续为你工作,并给你更新。今年让我最兴奋的事情之一就是 Codex 真的变得非常好,这其实也指向了我心中未来产品形态的一部分。

老实说,这件事让我感到惊讶。说“尴尬”不太准确,毕竟它已经极其成功了。但 ChatGPT 在过去三年里,界面变化之小,确实出乎我的意料。

Alex Kantrowitz:但界面确实好用。不过,底层变化很大。你刚才也提到了个性化和记忆,这也是我最喜欢的功能之一。记忆功能真的改变了体验。我最近几周一直在和 ChatGPT 讨论一次即将到来的旅行,涉及很多规划内容。即便我新开一个窗口,只说一句“我们继续聊这次旅行吧”,它就能马上接上,知道我和谁一起去、要做什么、甚至知道我在为这次旅行做健身计划,并能把所有这些信息综合起来。记忆能力究竟能强到什么程度?

Sam Altman:我觉得我们现在根本还没有概念。人类哪怕拥有世界上最好的私人助理,也不可能记住你一生中说过的每一句话,不可能读过你所有的邮件、所有写过的文档,不可能每天关注你所有的工作细节。人类没有无限、完美的记忆。

而 AI 是可以做到这一点的。我们内部经常讨论这个问题。现在的“记忆”还非常原始,非常早期,大概还处在 GPT-2 时代的水平。但当它真的能够记住你一生中的每一个细节,并在此基础上进行深度个性化,不只是事实,还包括那些你自己都未必意识到的小偏好——AI 却能捕捉到——那将会极其强大。这也许不是 2026 年就能实现的事情,但这是我最兴奋的方向之一。

Alex Kantrowitz:我之前和一位神经科学家聊过,他说你在大脑里找不到“思想”的存储位置,而计算机是有存储位置的,可以把一切都存下来。当这些机器人开始保存我们的思想时,当然会带来隐私问题。但还有一点也很有意思:人们会和它们建立真正的关系。这是整个时代中被低估的一点。很多人已经开始感觉这些机器人像是陪伴者,在为他们着想。你怎么看这种亲密感、陪伴感?有没有一个“旋钮”,可以决定人和 AI 的距离?如果有,你们如何去调节它?

Sam Altman:实际上,想要那种“亲密陪伴”的人,比我原先以为的要多得多。我不知道该用什么词来形容——“关系”不太对,“陪伴”也不太准确,但他们确实想和 AI 建立一种深度连接。而且在目前模型能力水平下,想要这种关系的人已经比我预期的多很多。

年初的时候,说自己想要这种体验还被认为是很奇怪的事。现在可能很多人依然不会明说,但从行为上能看出来:人们希望 AI 了解他们、对他们温暖、支持他们。这对很多人来说是有价值的,甚至包括一些口头上说自己并不在乎的人。

我认为其中有些形态是非常健康的,也认为成年用户应该拥有很大的选择空间,决定自己在这个光谱上的位置。当然,也有一些形态在我看来是不健康的,但肯定仍然会有人选择它。同时,也有一部分人只想要最干燥、最高效的工具。

我猜测,就像很多其他技术一样,我们会不断试验,发现一些之前不知道的好处和问题。社会最终会慢慢形成共识:哪些地方应该如何设定那个“旋钮”。而个人则会拥有非常大的自由,把它调到完全不同的位置。

Alex Kantrowitz:所以你的想法是,让用户自己来决定?

Sam Altman:是的,绝对如此。但我们并不清楚它究竟应该走多远,也不清楚我们应该允许它走多远。我们会给予用户相当大的个人自由。当然,也确实有一些事情是其他服务可能会提供,但我们不会去做的。

嗯,比如说,我们不会——我们不会让“RAI”(负责任 AI)去做那种事:比如试图说服人们应该和它建立一种排他性的恋爱关系之类的。我们得把它保持在一个开放的状态。

不过我相信,其他一些服务里肯定会发生这种事情。

Alex Kantrowitz:对,因为越“粘”,那项服务就越赚钱。这些可能性你一旦认真往深里想,就会觉得有点吓人。

Sam Altman:完全同意。这确实是那种……我个人会觉得——你能看见它走向“严重翻车”的路径。

3

消费者赢了,企业就容易了:ChatGPT 的反向 B2B 路径

Alex Kantrowitz:你刚才提到了企业业务,我们聊聊 Enterprise。上周你在纽约跟一些新闻公司的编辑和 CEO 吃午饭时说,企业业务会是 OpenAI 明年的一个重大优先事项。我想听你展开讲讲:为什么这会成为优先级?你觉得你们和 Anthropic 相比处在什么位置?很多人会说这像是 OpenAI 的一次转向,因为你们一直更偏消费者业务。请你整体概述一下你们的企业计划。

Sam Altman:我们的策略一直是消费者优先。主要有几个原因。第一,过去模型还不够稳健、也不够“熟练”,无法满足大多数企业场景的需求;但现在它们正在变得足够好。第二,我们当时在消费者市场看到一个非常清晰的胜利机会,而这种机会既罕见又难得。我认为,如果你在消费者市场赢了,会让你在企业市场的胜利变得容易得多——我们现在就正在看到这一点。

但正如我前面提到的,今年企业增长已经超过了消费者增长。考虑到模型目前所处的位置、以及它们明年会到达的水平,我们认为现在就是我们能非常快地做出一个规模可观的企业业务的时间点。我们现在已经有企业业务了,但它还能增长得更多。

企业看起来已经准备好了,技术也看起来已经准备好了。

迄今为止最典型的例子当然是编码,但还有其他方向也在快速增长,一些垂直领域现在增长得非常快。我们开始听到越来越多企业说:“我其实就想要一个 AI 平台。”

Alex Kantrowitz:是哪一个垂直领域?

Sam Altman:嗯,金融科学(finance science)是我个人眼下对所有进展里最兴奋的一个方向。客户支持做得也很不错。但不过说到这个,我们还有一个叫GDP的东西。

Alex Kantrowitz:我正想问你这个。我能把关于它的问题直接抛出来吗?好。我给 Box 的 CEO Aaron Levie 发了消息,我说我要见 Sam,我该问什么?他回复说:问问 GDP eval。

所以,这是一个衡量 AI 在知识工作任务中表现的指标。我就去翻了 GPT 5.2 的发布,去看你们最近放出来的那张 GDP-val 图。当然,这是 OpenAI 自己做的评测。即便如此:GPT-5 thinking(也就是夏天发布的那个 thinking 模型),在知识工作任务中,以 38% 的比例“赢过 / 打平 / 接近人类知识工作者”(大概是 38.8%);而 GPT 5.2 thinking 在知识工作任务上,以 70.9% 的比例赢过或打平;GPT 5.2 pro 则达到 74.1%。并且它还跨过了“专家级”的阈值——看起来它能处理大约 60% 的专家级任务,也就是在知识工作上与专家差不多的水平。这些模型能做这么多知识工作的含义是什么?

Sam Altman:你刚才问“垂直领域”其实是个很好的问题,但我刚才之所以有点卡壳,是因为这个评测其实覆盖了我觉得大概四十多个不同的“业务垂直任务”:做一份 PowerPoint、做法律分析、写一个小 Web 应用等等。这个评测本质上是在问:对于企业必须做的许多任务,专家是否更喜欢模型输出,相对于其他专家的输出

当然,这些都是小任务、范围明确的任务,它不包括那种复杂、开放式、创造性的工作,比如“想出一个新产品”;也不包括很多团队协作型的事情。但即便如此——如果你能把一个小时的任务交给一个“同事”,它给你返回的结果在 74% 或 70% 的情况下你会更满意,而且你还能付更低的成本——这依然非常惊人。

如果你回到三年前 ChatGPT 刚发布的时候,有人说三年后我们会达到这个水平,大多数人都会说:绝不可能。所以当我们思考企业将如何整合这项能力时,现在早已不只是“它会写代码”了,而是一整套知识工作任务都可以分发给 AI 去做。企业要真正摸索出如何把它融入流程,可能需要时间,但它的影响应该会相当巨大。

Alex Kantrowitz:我知道你不是经济学家,所以我不打算问你“宏观就业的整体影响”之类的问题。但我想读给你一段我在 Substack 上《Blood in the Machine》里看到的话,来自一位技术文案写作者。他说:“聊天机器人进来之后,我的工作变成了管理机器人,而不是管理一支客服代表团队。”这一点我觉得会经常发生。但他接着说:“一旦机器人被训练到能够提供足够好的支持,我就出局了。”这种事情会不会更普遍?这会不会是“坏公司”更常做的事?因为如果一个人能编排许多不同的机器人,你可能会想留下他。我不确定。你怎么看?

Sam Altman:我同意你说的:很明显,未来每个人都会在管理很多 AI,让它们做各种不同的事。最终就像任何优秀的管理者一样——希望你的团队会越来越强,而你也会承担更大的范围、更大的责任。我不是那种“就业末日论者”。短期内我确实有些担忧,我认为在一些情况下,转型会很艰难。

但我们在人类层面上,我们似乎天生就太关注他人、在意他人做什么;我们似乎非常关注相对地位,总想要更多,总想要有用、能服务别人、表达创造力……这些驱动我们走到今天的东西,我不认为会消失。

当然,我确实认为未来的“工作”(甚至我都不知道还该不该叫“工作”)——到了 2050 年,我们每天在做的事情大概率会和今天非常不一样。但我并不持那种“人生会失去意义、经济会彻底崩塌”的观点。我希望我们反而会找到更多意义;经济结构会显著变化,但我觉得你不能押注“进化生物学会输”。

我经常想:我们如何把 OpenAI 的所有职能自动化;更进一步,我还会想:如果 OpenAI 有一个 AI CEO 会怎样?这并不让我不安,反而让我很兴奋。我不会抗拒。我不想成为那种死死抱着说“我手工做得更好”的人。

Alex Kantrowitz:让 AI CEO 去做决策,指挥我们把资源投向“给 AI 更多能量和算力”之类的事情——这听起来……你肯定会给它加护栏吧?

Sam Altman:当然。你显然不希望一个完全不受人类治理的 AI CEO。但如果你设想一种版本——这个类比可能很疯狂,但我还是说——如果世界上每个人都等效地坐在一家 AI 公司的董事会里,都可以告诉 AI CEO 该做什么,如果它做得不好大家还能把它开掉;也就是说,关键决策都有治理机制,而 AI CEO 负责尽可能执行董事会的意志——那么在未来的人看来,这也许是一个相当合理的系统。

4

GPT-6 先别急:下一步更像“定制升级”

Alex Kantrowitz:好,我们马上会谈基础设施。但在离开“模型与能力”这一段之前,GPT-6 什么时候来?

Sam Altman:我不确定我们会在什么时候把某个模型叫作 GPT-6。但我预计,在明年第一季度,我们会发布一些相对于 5.2 有显著提升的新模型。

Alex Kantrowitz:“显著提升”指什么?

Sam Altman:我现在还没法给你一个具体评测分数。总体上会是“面向企业”和“面向消费者”两边都会有提升:消费者侧的模型会有很多改进,但消费者目前最想要的并不是更高的 IQ;企业仍然更想要更高的 IQ。

所以我们会针对不同用途、用不同方式来提升模型。我们的目标是:做出一个让所有人都明显更喜欢的新模型。

5

如果今天有双倍算力,今天就有双倍收入

Alex Kantrowitz:说到基础设施:你们有大概 1.4 万亿美元的投入承诺,用来建设基础设施。我听过你很多关于基础设施的表述。比如你说:“如果人们知道我们能用算力做到什么,他们会想要更多、更多。”你说:“我们今天能提供的东西,与 10 倍算力、100 倍算力相比,差距巨大。”你能不能再把它展开一点:你们要用这么多算力做什么?

Sam Altman:我前面稍微提过一点。我个人最兴奋的方向,是用 AI 和大量算力去推动科学发现。我相信科学发现是让世界对所有人变得更好的“最高位因素”。如果我们能把巨量算力投入科学问题,发现新的知识——现在已经开始有一点点苗头了,当然非常早期、非常小的成果——但我对这个领域的历史经验是:一旦曲线开始出现、开始从 x 轴抬起来一点,我们就知道如何把它做得越来越好。但这需要极大量的算力。

所以我们正在把很多 AI 用在科学发现、治病,以及很多其他事情上。

最近一个挺酷的例子是:我们用 Codex 构建了 Sora 的 Android App,他们不到一个月就做完了。他们用了非常大量的 tokens——在 OpenAI 工作的一个好处是,你用 Codex 不会被限额。他们用掉了巨大 token 数,但做出了原本需要更多人、花更久时间才能完成的事情,Codex 基本上帮我们把大部分工作做了。你可以想象这进一步发展后,整个公司都可以用大量算力来构建产品。

人们也聊了很多:视频模型最终会指向一种“实时生成的用户界面”,那也会需要大量算力。企业要做业务改造,会用掉大量算力。医生如果想提供真正个性化的医疗——持续监测每个病人的各种体征——你也能想象那会消耗大量算力。

现在要框定我们在全世界生成 AI 输出已经用掉多少算力,其实很难。我接下来要说的数字非常粗糙,而且我也觉得这种说法不够严谨,但我总觉得这种“脑内思想实验”多少有点帮助,所以先原谅我这种粗糙吧。

假设一家 AI 公司今天,用前沿模型每天输出大概 10 万亿 tokens 的量级。可能更高,但我不认为有人能达到每天 1000 万亿(quadrillion)tokens。假设世界上有 80 亿人,假设平均每个人每天输出的 token 数是 2 万(我觉得这完全不对,但先这么假设)。严格来说,我们还得比较的是模型提供方“输出的 tokens”,而不是“消耗的全部 tokens”。但你可以开始做一个对比:我们可能会看到某家公司每天输出的 tokens,会超过全人类每天合计输出的 tokens,然后再是 10 倍,再是 100 倍。

某种意义上这是个很傻的比较;但某种意义上,它能给你一个数量级的直觉:地球上“智力运算”的主体,究竟有多少来自人脑、多少来自 AI 脑——以及它们之间有趣的相对增长速度。

Alex Kantrowitz:所以我在想:你们是否真的知道这种算力需求是存在的?比如,如果 OpenAI 把投入到科学上的算力翻倍,我们就一定会有科学突破吗?或者在医疗上,我们是否明确知道能用它去协助医生?这里面有多少是你们对未来的推测,有多少是基于今天已经看到的明确趋势?

Sam Altman:我们基于今天看到的一切判断:这会发生。这并不意味着未来不可能出现某个疯狂变量——比如有人发现一种全新的架构,带来 1 万倍效率提升,那我们可能短期内确实会显得“建得太多”。但就我们现在看到的情况:模型在每个新层级上的进步速度、人们每一次都更想用它、每一次成本下降人们就更想用——这一切都在指向同一件事:需求会持续增加,人们会用它做很棒的事,也会用它做很傻的事。但整体来看,这就是未来的形状。

而且这不只是“每天能输出多少 tokens”的问题。还包括我们能多快地输出。随着这些编码模型变得更强,它们可以想很久,但你不想等很久。所以还有其他维度,不只是 tokens 数量本身。

但在少数几个关键维度上,对“智能”的需求会很大,而我们可以用这些能力做很多事。比如你有一个很棘手的医疗问题,你会用 5.2 还是用 5.2 Pro?哪怕后者要用多得多的 tokens——我觉得你会选更好的模型,我认为很多人都会。

Alex Kantrowitz:我们再往下追一层。你说科学发现,能不能给一个例子?不一定要是今天已经完全确定的那种“我有问题 X,只要投入算力 Y 就能解决”,但至少给个直观的例子:今天有哪些问题是“我想解决但还做不到”的?

Sam Altman:今天早上 Twitter 上有一个讨论:一群数学家互相回复。他们大概在说:“我原本非常怀疑 LLM 什么时候才能真的有用;但 5.2 是让我跨过门槛的那个模型。”他们说它在一些帮助下做出了一个小证明,发现了一些小东西,但这已经在改变他们的工作流。然后更多人跟上来说“我也是”。有些人说 5.1 就已经到达了,但不多。

考虑到 5.2 才发布 5 天左右,就出现这种反馈——数学研究社区像是在说:“好像有件重要的事刚刚发生了。”

Alex Kantrowitz:我看到 Greg Brockman 也一直在他的动态里高亮各种数学、科学方向的用法。某种东西在这些圈子里,和 5.2 一起被“点亮”了。所以随着进展推进,会发生什么很值得观察。

Sam Altman:算力这件事还有个难点:你必须提前非常久去做规划。你刚才提到的那 1.4 万亿美元,我们会在非常长的时间里逐步花出去。我希望能更快,我觉得如果我们能更快地投入,会有需求承接。但建设这些项目需要极其长的时间:数据中心的建设、供能、芯片、系统、网络等等,一切都很耗时。所以这是一个长期过程。

不过,从一年前到现在,我们大概把算力翻了三倍。

我们希望明年再翻三倍,再下一年再翻一次。收入增长的速度甚至比这还略快一点,但大体上确实是跟着算力规模走的。所以我们从来没有遇到过一种情况:我们没法把已有的算力很好地变现。

换句话说,如果我们现在有双倍的算力,我觉得我们的收入也会是现在的双倍。

6

如果不激进投入,OpenAI 或许早就盈利了

Alex Kantrowitz:好,那既然你提到了数字,我们就聊聊数字。收入在增长,算力支出在增长,但算力支出的增长仍然快过收入增长。报道里有一些数字,说 OpenAI 可能会在现在到 2028/2029 年之间累计亏损大概 1200 亿美元,然后到那时开始盈利。你能讲讲这个拐点是怎么出现的吗?转折点在哪里?

Sam Altman:随着收入增长,随着推理(inference)越来越成为算力资源中的主要部分,它最终会“盖过”训练成本。这就是计划:训练阶段花很多钱,但之后赚得越来越多。

如果我们不继续把训练成本增长推得这么猛,我们会更早盈利得多。但我们现在押注的是:非常激进地投入训练这些大模型。

Alex Kantrowitz:整个世界都在看:你们的收入能否匹配你们的支出。大家问的问题是:如果今年收入轨迹可能达到 200 亿美元,而你们的投入承诺是 1.4 万亿美元——这到底怎么对得上?我觉得如果能一次性把这些数字的逻辑讲清楚,会非常有价值。

Sam Altman:这很困难。因为人们很难在脑子里建立一个快速、可靠的心智框架去理解指数级增长。我自己肯定做不到,而且我见过的人里也极少有人能做到。你可以对很多数学问题有不错的直觉,但对指数增长,人类通常就是做不好。进化让我们擅长很多“脑内数学”,但建模指数增长似乎并不是其中之一。

我们的核心判断是:我们还能在很长一段时间里保持非常陡峭的收入增长曲线。我们目前看到的一切都在表明:如果没有足够算力,我们根本做不到——我们一直都在被算力约束。

算力不足对收入线的影响非常直接、非常硬。所以如果未来某个节点出现“我们有一大堆闲置算力却无法在单位算力上盈利变现”,那么人们质疑“这到底怎么运作”的确会非常合理。

但我们已经用很多种方式把账算过了。我们当然也会在 flops per dollar 上变得更高效——我们在降低算力成本方面做的工作会逐步兑现。我们看到了消费者增长,也看到了企业增长,还有一堆我们甚至还没发布的新业务类型,但都会上线。而算力就是支撑这一切的生命线。

所以,我们会设置一些阶段性检查点。如果我们对时机或数学估计稍微算错了,我们也有一定的灵活性。但我们一直以来的状态都是:算力永远不够。

它一直在限制我们能做的事情。很遗憾,我觉得这种情况可能永远都会存在,但我希望这种限制能少一点,也希望随着时间推移把它降到更低。因为我认为我们其实可以交付非常多很棒的产品和服务,这也会是一门非常好的生意。

Alex Kantrowitz:所以,本质上是这样一个关系:训练成本在绝对值上升,但在整体成本结构中所占的比例在下降。然后你的预期是,通过这些方式——比如推动企业级市场、比如有人愿意通过 API 为 ChatGPT 付费——OpenAI 能够把收入增长到足以用收入来覆盖这些成本。

Sam Altman:是的,这就是计划。

Alex Kantrowitz:我觉得最近市场对这件事有点“失控”了。让市场真正感到不安的,是“债务”开始进入这个等式。传统上,你会在事情比较可预测的时候去举债,然后公司拿着这笔债去建设,并且有相对可预测的收入。但这是一个全新的类别,它是不可预测的。你怎么看待债务进入这个领域这件事?

Sam Altman:首先,我觉得市场在今年早些时候就已经“失控”过一次了。你知道,我们可能只是去见了一家公司,那家公司的股价第二天就涨了 20% 或 15%,让我觉得非常不健康。

说实话,我反而挺高兴现在市场里多了一点怀疑精神和理性,因为之前看起来我们正一路奔向一个极其不稳定的泡沫。而现在我觉得人们多少恢复了一点纪律性。

所以我认为,事情是这样的:之前大家太疯狂了,现在在债务问题上反而更理性一些。我们大致知道一件事:如果我们去建设基础设施,整个行业里总会有人能从中获得价值。现在仍然非常早期,这点我同意。但我不认为还有人会质疑“AI 基础设施不会产生价值”这件事。

所以我觉得,债务进入这个市场是合理的。我也认为未来还会出现其他类型的金融工具。我怀疑其中会有一些并不那么理性的创新方式,人们会在如何为这些东西融资上不断“发明新花样”。但比如说,借钱给公司去建数据中心,这在我看来是完全合理的。

Alex Kantrowitz:真正让人担心的是:如果事情不能按现在的速度继续推进。比如有一种情形——你可能不同意——模型能力的进步出现饱和,那么这些基础设施的价值就会低于此前的预期。那当然,这些数据中心对某些人来说仍然是有价值的,但也有可能被清算,然后被别人以折扣价买走。

Sam Altman:我确实也认为中间一定会出现一些繁荣与萧条的周期,这类事情从来都不是一条完全平滑的直线。

首先,这一点在我看来是非常明确的,而且这是我愿意“拿公司去赌”的判断:模型一定会变得好得多、好得多。我们对这一点有非常清晰的判断窗口,我们对此非常有信心。

即便模型能力不再进步,我也认为世界上存在很强的惯性。人们需要时间去理解如何适应新事物。

我相信,5.2 这个模型所代表的潜在经济价值,与目前世界实际挖掘出来的价值之间,存在着极其巨大的“悬空空间”。即便你把模型能力冻结在 5.2 的水平,问一句:还能创造多少额外价值、还能推动多少收入增长?我会赌一个“非常巨大”的数字。

事实上,你没有问这个问题,但如果我可以稍微发散一下的话——我们过去经常讨论一个 2×2 的矩阵:时间线是短还是长,起飞是快还是慢。我们会在不同时间判断这些概率如何变化,并据此来理解这个世界应该优化怎样的决策和战略。

但在我脑海里,现在多出来了一条 Z 轴:能力“悬空空间”是小还是大。回头看,我意识到我当时并没有认真思考这一点。我大概隐含地假设,如果模型里蕴含着大量价值,世界会很快学会如何部署和使用它们。但现在看起来,在世界的大多数地方,这个“能力悬空空间”会大得惊人。

当然,会有一些局部区域,比如一部分程序员,通过采用这些工具会变得极其高效。

但总体来说,我们已经拥有了一个疯狂聪明的模型,而老实说,大多数人问的问题,仍然和 GPT-4 时代差不多。科学家、程序员、不同类型的知识工作者,变化程度各不相同,但整体上仍然存在巨大的能力悬空空间。

而这一点会给世界带来一系列非常奇怪的后果。我们还远没有完全想清楚它将如何展开,但这确实非常、非常不同于我几年前的预期。

7

为什么模型这么强了,企业落地还不见成效?

Alex Kantrowitz:我想问你一个关于“能力悬空”的问题。基本上,模型能做的事情比它们现在被使用来做的事情多得多。我试图理解,为什么模型已经这么强了,但很多企业在实际落地时,却拿不到投资回报——至少他们是这么跟 MIT 说的。

Sam Altman:我对此有点困惑,因为我们又听到很多企业说:“就算 GPT-5.2 的价格涨 10 倍,我们也愿意付费。你们现在的定价严重低估了价值,我们已经从中获得了巨大收益。”

所以这两种说法似乎对不上。

如果你去问程序员,他们也会说:“这东西太值了,我愿意付现在价格的一百倍。”

假设你相信那些 GDP 价值评估的数据——当然你也有充分理由不相信,可能它们是错的——但假设它们是真的:对于那些定义清晰、周期不算特别长的知识工作任务,在 10 次里有 7 次,你对 5.2 的输出会和人工一样满意,甚至更满意。那么你就应该大量使用它。但现实是,人们改变工作流所花的时间,远比我想象的要长。

人们已经非常习惯让初级分析师去做 PPT 之类的事情,这种习惯的粘性比我预期的要强得多。说实话,我自己现在的工作流,也仍然和过去差不多,尽管我明明知道自己可以比现在多用得多的 AI。

8

闪电问答:一朵不想成为 AWS 的云,和一场并不兴奋的 IPO

Alex Kantrowitz:好,我们还剩 10 分钟。我还有四个问题,我们试着用“闪电轮”来过一遍。

你们正在做的那个设备。我们刚才说会回来继续聊 OpenAI CEO Sam Altman。我听到的说法是:手机大小、没有屏幕。那为什么不能只是一个 App?如果它是一个没有屏幕的“手机”,那为什么不是 App?

Sam Altman:首先,我们会做一个小型的设备家族,而不是单一设备。随着时间推移……这不是猜测,我尽量不让自己说错,但我认为,未来人们使用计算机的方式会发生变化:从一种“愚钝的、被动反应式”的东西,转向一种非常聪明、非常主动的东西——它理解你的整个人生、你的上下文、你周围正在发生的一切,非常清楚你身边的人,无论是物理上的,还是通过你正在使用的计算机。

而我认为,现有的设备并不适合这样一个世界。我一直非常相信一点:我们是在“设备能力的边界”上工作。你有一台电脑,它做出了一系列设计选择,比如它是开着的还是关着的,但它不能处在一种状态:一边让我专心听这场采访,一边在我忘了问你一个问题时轻声提醒我。也许那样会很有用。

我们有屏幕,这就把我们限制在几十年来图形界面的那种交互方式里;我们有键盘,而键盘的设计初衷本来就是为了降低输入信息的速度。这些假设已经存在了很长时间,而且它们确实有效。但现在出现了一种全新的东西,打开了一个全新的可能性空间。我不认为当前的设备形态会是这个全新能力的最优承载方式。如果真是那样,反而会显得非常奇怪。

Alex Kantrowitz:这个话题我们能聊一小时,但我们还是继续下一个问题吧:云。你谈到过要建设一个“云”。有一位听众给我们发来邮件:在他的公司里,他们正在从 Azure 迁移,直接集成 OpenAI,为产品提供 AI 能力。他们的目标是让数万亿 token 在整个技术栈中流动,用来支撑 AI 体验。这是不是你们想要打造一个巨大云业务的方向?

Sam Altman:首先,数万亿 token——那真的很多 token。你刚才问到算力需求和企业战略,企业已经非常明确地告诉我们,他们想从我们这里购买多少 token。我们很可能在 2026 年再次无法满足需求。

整体战略是这样的:大多数公司似乎都想来找我们,说:“我需要一个‘带 AI 的公司’。我需要一个为我公司定制的 API,我需要为我公司定制的 ChatGPT Enterprise,我需要一个我可以信任、可以运行所有 agent、可以托管我数据的平台。我需要把数万亿 token 注入我的产品。我需要让所有内部流程更高效。”

而我们目前并没有一个真正优秀的一体化方案,但我们想把它做出来。

Alex Kantrowitz:你的目标是成为像 AWS、Azure 那样的存在吗?

Sam Altman:我觉得这是一个不同类型的东西。我并没有什么雄心要去提供你用来托管网站的那一整套服务。但我确实认为,未来人们会继续拥有所谓的“Web 云”,同时还会有另一种东西:公司会说,“我需要一个 AI 平台,用来支撑我内部的一切、我对外提供的一切服务。”

它在某种意义上仍然依赖物理硬件,但我认为它会是一个相当不同的产品形态。

Alex Kantrowitz:我们快速聊一下“发现”。你曾说过一件让我印象很深的事:你认为模型——或者人与模型的协作——会在明年产生小发现,在五年内产生重大发现。那是模型本身,还是人与模型协作?你为什么对此这么有信心?

Sam Altman:是人使用模型。模型自己去提出问题,那种能力我觉得还要更远一些。但如果世界能因为新知识而受益,那我们就应该感到非常兴奋。整个人类进步的历史,本质上就是:我们打造更好的工具,人用这些工具做更多事,然后在这个过程中再打造更好的工具。这是一种层层攀升的脚手架,一代又一代,一次发现接一次发现。问题是人提出来的,并不会削弱工具的价值。

说实话,我很开心。今年年初我以为小发现会在 2026 年才开始,但它们在 2025 年下半年就出现了。当然,这些发现非常小,我真的不想夸大它们。但“有一点”和“完全没有”,在我看来是质的区别。三年前我们刚发布模型的时候,它是完全不可能对人类知识总量做出任何新贡献的。

从现在到五年后的这段路,我怀疑这就是 AI 的常规爬坡过程:每个季度进步一点点,然后突然有一天我们会意识到——“哇,人类在模型增强下,正在做五年前完全做不到的事情。”

至于我们是把功劳更多归因于更聪明的人,还是更聪明的模型,只要我们真的得到了科学发现,我对两种说法都很满意。

Alex Kantrowitz:明年 IPO?你想成为一家上市公司吗?你看起来可以作为私营公司运营很久。

Sam Altman:这里面有很多因素在起作用。我确实觉得,让公众市场参与价值创造是一件挺酷的事情。从某种意义上说,如果你对比历史上的公司,我们已经算是非常晚才上市了。做私营公司当然很棒,但我们确实需要大量资本,迟早会触及各种股东数量限制。

我期待成为一家上市公司的 CEO 吗?0%。

我期待 OpenAI 成为一家上市公司吗?在某些方面是的,但在某些方面我也觉得那会非常烦。

Alex Kantrowitz:我非常认真地听了你和 Theo Von 的那期访谈,很棒的一期。他真的很懂行,做了很多功课。你当时说,在 GPT-5 发布前,GPT-5 在几乎所有方面都比我们更聪明。我当时想:这不就是 AGI 的定义吗?如果这还不是 AGI,那这个词是不是已经变得有点没有意义了?

Sam Altman:这些模型在“原始算力”层面显然非常聪明。最近几天有很多关于 GPT-5.2 的讨论,说它的 IQ 是 147、144、151,取决于你用的是谁的测试。你也能看到很多领域专家说它能做出惊人的事情,能提升他们的工作效率。我们也讨论了 GDP 影响。

但有一件事你还没有:模型目前还做不到这样一件事——当它今天发现自己不会做某件事时,它无法自己意识到这一点,主动去学习、理解,等你第二天回来,它就已经把这件事做好了。这种持续学习能力,连幼儿都具备,而这似乎是我们需要构建的一个非常重要的部分。

那么,没有这一点,你能否仍然拥有大多数人眼中的 AGI?我认为答案并不明确。很多人会说,我们现在的模型已经是 AGI 了。几乎所有人都会同意,如果在当前智能水平之上再加上这种能力,那就毫无疑问是 AGI 了。但也许世界上的大多数人会说:“好吧,就算没有那一点,它已经能完成大多数重要的知识工作,在大多数方面比大多数人都聪明,它已经在做小规模的科学发现了,那这就是 AGI。”

这说明的问题是:这个词本身定义得太不清晰了。虽然我们都很难停止使用它。

有一件事我真的很希望我们当初做对:AGI 没有被好好定义。而现在大家关注的新词是“超级智能”。所以我的提议是:我们承认 AGI 就这样“嗖”地过去了。它没有立刻改变世界——或者说它会在长期改变世界——但好吧,我们已经在某个阶段构建出了 AGI。现在我们处在一个模糊期,有些人认为我们已经到了,有些人不这么认为,慢慢会有更多人认为我们到了。然后我们该问:“接下来是什么?”

我给“超级智能”提供一个候选定义:当一个系统在担任美国总统、管理一家大型公司、运行一个超大型科研机构时,做得比任何一个人都好,哪怕这个人还能借助 AI 的帮助。

这让我想起了国际象棋的历史。有一个阶段,人类和 AI 结合在一起,比单独的 AI 更强;再后来,人类反而成了拖累,最聪明的做法是完全不加人类的 AI。我觉得这是一个理解超级智能的有趣框架。当然,这还很遥远,但我真希望这一次我们能有一个更清晰的定义。

Alex Kantrowitz:Sam,我已经每天使用你们的产品三年了,它们真的变得越来越好,几乎无法想象接下来还能怎么进步。

Sam Altman:我们会尽力让它们继续快速变好。

参考链接:

https://www.youtube.com/watch?v=2P27Ef-LLuQ