Altman承认“搞砸了”,曝 GPT-5.2 牺牲写作换顶级编程,明年成本降 100 倍,实锤Agent 已能永久干活
13 小时前 / 阅读约19分钟
来源:36kr
OpenAI CEO Sam Altman发起线上研讨会,讨论AI未来形态、模型演进、智力成本下降等问题。他提出未来软件将即时生成,智力成本将大幅下降,同时强调AI安全需全社会努力。

在 AI 圈,Sam Altman 的每一次发声都被视为对未来“天气预报”的更新。

昨晚,Altman 在 X 上发帖称将举办一场线上研讨会,希望在开始构建新一代工具之前收集大众的反馈和意见。

北京时间今早 8 点,这场由 OpenAI CEO Sam Altman 发起的研讨会如约而至。来自各行业的创业者、CTO、科学家和开发者社区的代表,围绕 AI 的未来形态、模型演进、智能体(Agent)、科研自动化以及安全问题,向 Altman 提出了最尖锐、也最现实的问题。

研讨会上,这位 OpenAI 的掌舵人不仅勾勒了 GPT-5 及其后续版本的进化蓝图,同时揭示了一个令所有开发者和创业者不得不面对的现实:我们正在进入一个智力成本极低、软件形态从“静态”转向“即时生成”的剧变期

会谈的第一个焦点,落在了 GPT-5 性能表现的“非对称性”上。有开发者敏锐地察觉到,相较于 GPT-4.5,新版本在逻辑推理和编程上极强,但在文采上似乎略逊一筹。对此,Altman 表现出了极高的坦诚。

他承认,OpenAI 在 GPT-5.2 的研发中确实“搞砸了”写作能力的优先级,因为团队将有限的算力资源倾斜在了推理、编码和工程能力这些硬核智力指标上

在 Altman 看来,智力是一种“可塑的资源”,当模型具备了顶级的推理引擎,写作能力的回归只是时间问题。这种“偏科”实际上反映了 OpenAI 的某种战略重心:先通过 Scaling Law(规模定律)攻克人类智力的最高地带,再回头去填补审美和表达的细节。这意味着,未来模型的竞争将不再是单一维度的比拼,而是看谁能更早地在全维度上实现“智力平权”。

如果说智力水平决定了天花板,那么成本和速度则决定了 AI 的渗透率。Altman 在会上给出了一个极具震撼力的承诺:到 2027 年底,GPT-5.2 级别的智力成本将至少下降 100 倍

然而,这种“廉价到无需计量”的未来并非终点。

Altman 指出,市场正在发生微妙的转向:开发者对“速度”的渴求正在超越对“成本”的关注。随着 Agent(智能体)开始处理数十个步骤的长程任务,如果输出速度不能实现百倍以上的提升,那么复杂的自主决策将变得毫无实用价值。在这种权衡下,OpenAI 可能会提供两种路径:一种是极致廉价的“智力自来水”,另一种则是极速反馈的“智力推进器”。这种对速度的强调,预示着 AI 应用将从简单的问答,彻底跨入高频、实时的自动驾驶阶段。

在这种智力成本骤降、速度飙升的背景下,传统软件的概念正在瓦解。Altman 提出了一个颠覆性的愿景:未来的软件不应该是静态的。

过去,我们习惯于下载一个通用的 Word 或 Excel;未来,当你遇到一个特定问题时,计算机应该直接为你写一段代码,生成一个“即时应用”来解决它。这种“随需随生、用完即弃”的模式将彻底重构操作系统。虽然我们可能出于习惯保留一些熟悉的交互按钮,但背后的逻辑架构将是高度个人定制化的。每个人手中的工具都会随着其工作流的积累而演化,最终形成一套独属于个人的、动态进化的生产力系统。这不仅仅是软件的定制,更是生产关系的重组。

InfoQ 翻译并整理了这场研讨会的重点内容,以飨读者:

提问:您如何看待 AI 对未来社会和经济的影响?

Sam Altman:说实话,要在一年内完全消化这种规模的经济变革是非常困难的。但我认为这会极大地赋能每一个人:它将带来大规模的资源富足、门槛降低,以及创造新事物、建立新公司和探索新科学的极低成本。

只要我们在政策上不出大差错,AI 应该成为社会的一种“平衡力量”,让那些长期以来未被公正对待的人获得真正的机会。但我确实担心,AI 也可能导致权力和财富的高度集中,这必须是政策制订的核心关注点,我们要坚决避免这种情况发生。

提问:我发现 GPT-4.5 曾是写作能力的巅峰,但最近 GPT-5 在 ChatGPT 里的写作表现似乎有些笨拙、难以阅读。显然 GPT-5 在 Agent(智能体)、工具调用和推理上更强,它似乎变得更“偏科”了(比如编程极强,写作一般)。OpenAI 怎么看这种能力的失衡?

Sam Altman:坦诚说,写作这一点确实是我们搞砸了。我们希望未来的 GPT-5.x 版本在写作上能远超 4.5。

当时我们决定将大部分精力放在 GPT-5.2 的“智力、推理、编程和工程能力”上,因为资源和带宽是有限的,有时专注于某一方面就会忽略另一方面。但我坚信未来属于“通用的高素质模型”。即便你只想让它写代码,它也应该具备良好的沟通和表达能力,能清晰、犀利地与你交流。我们认为“智力”在底层是相通的,我们有能力在一个模型中把这些维度都做到极致。目前我们确实在猛攻“编程智力”,但很快就会在其他领域赶上来。

智能将廉价到无需计量

提问:对于运行数千万个 Agent 的开发者来说,成本是最大的瓶颈。您如何看待小模型和未来的成本降幅?

Sam Altman:我们的目标是,到 2027 年底,让 GPT-5.2 级别的智力成本至少降低 100 倍。

但现在有一个新趋势:随着模型输出变得越来越复杂,用户对“速度”的需求甚至超过了“成本”。OpenAI 非常擅长压低成本曲线,但过去我们对“极速输出”的关注不够。有些场景下,用户可能愿意付高价,只要速度能提升 100 倍。我们需要在“极致廉价”和“极致速度”之间找到平衡,如果市场更渴望低成本,我们会沿着那条曲线走得非常远。

提问:现在的交互界面并不是为 Agent 设计的。Agent 的普及会加速“微型应用(Micro Apps)”的出现吗?

Sam Altman:我已经不再把软件看作是“静态”的东西了。现在如果我遇到一个小问题,我期望电脑能立刻写一段代码帮我解决掉。我认为我们使用电脑和操作系统的方式将发生根本性改变。

虽然你可能每天用同一个文字处理器(因为你需要按钮留在熟悉的位置),但软件会根据你的习惯进行极致的定制。你的工具会不断进化、向你个人的需求收敛。在 OpenAI 内部,大家已经习惯用编程模型(Codex)来定制自己的工作流,每个人的工具用起来都完全不同。软件“由于我、且为我”而生,这几乎是必然的趋势。

给创业者的建议:不要做“模型的小补丁”

提问:当模型更新不断吞噬创业公司的功能时,创业者该如何建立护城河?有什么是 OpenAI 承诺不碰的?

Sam Altman:很多人觉得商业的物理定律变了,其实并没有。现在的改变只是“工作速度变快了”、“开发软件变快了”。但建立成功初创公司的规则没变:你依然要解决获客问题,要建立 GTM(转市场)策略,要创造粘性,要形成网络效应或竞争优势。

我给创业者的建议是:你的公司在面对 GPT-6 的惊人更新时,是感到开心还是难过?你应该去构建那些“模型越强,你的产品就越强”的东西。如果你只是在模型边缘打个小补丁,那会过得很艰难。

提问:现在的 Agent 执行长流程任务时经常在 5 到 10 步就断掉了。什么时候能实现真正长期的自主运行?

Sam Altman:这取决于任务的复杂程度。在 OpenAI 内部,有些通过 SDK 运行的特定任务已经可以近乎永久地运行下去了。

这不再是“何时实现”的问题,而是“应用范围”的问题。如果你有一个理解非常透彻的特定任务,今天就能尝试自动化。但如果你想对模型说“去帮我开一家创业公司”,由于反馈环路太长且难以验证,目前还很难。建议开发者先拆解任务,让 Agent 能够自我验证每一个中间步骤,再逐步扩大其职责范围

AI 能帮人类产生好创意吗?

提问:现在很多人抱怨 AI 生成的内容是“垃圾(Slop)”,我们该如何利用 AI 提高人类创意的质量?

Sam Altman:虽然人们叫 AI 的输出为垃圾,但人类产生的废话也不少。产生真正的新创意是非常难的。我越来越相信,人类的思维边界取决于工具的边界。

我希望能开发出帮人产生好创意的工具。当创造的成本骤降,我们可以通过密集的反馈循环快速试错,从而更早找到好的创意。

想象一下,如果有一个“Paul Graham 机器人”(YC 创始人),他了解你所有的过去、你的代码和工作,能不断给你提供头脑风暴,即便他给出的 100 个主意里有 95 个是错的,只要能激发你产生那 5 个天才般的念头,对世界的贡献也是巨大的。我们的 GPT-5.2 已经让内部科学家感受到了非平庸的科学进展,一个能产生科学洞察的模型,没理由产生不了优秀的产品洞察。

提问:我担心模型会让我们困在旧技术里。现在的模型学习两年前的新技术都很费劲,以后我们能引导模型学习最新出现的技术吗?

Sam Altman:这绝对没问题。从本质上讲,模型是一个“通用推理引擎”。虽然现在它们内置了海量的世界知识,但未来几年的里程碑将是:当你交给模型一个全新的环境、工具或技术,只要解释一次(或让它自主探索一次),它就能极其可靠地学会使用。这离我们并不远。

提问:作为一名科学家,我发现研究灵感是指数级增长的,但人的精力有限。模型会接管整个科研流程吗?

Sam Altman:实现完全闭环的自主科研还有很长的路要走。虽然数学研究可能不需要实验室,但顶尖数学家目前仍然需要深度参与,纠正模型的直觉偏差。

这很像国际象棋的历史:Deep Blue 击败卡斯帕罗夫后,曾出现一段“人机协作(半人马)”强于纯 AI 的时期,但很快纯 AI 就再次统领了赛场。

现在的 AI 对科学家来说,就像是“无限量的博士后”。它能帮你同时探索 20 个新问题,做广度搜索。至于物理实验,我们也在讨论是该 OpenAI 自己建自动化实验室,还是让全球科研社区贡献实验数据。目前看,科研社区对 GPT-5.2 的拥抱让我们倾向于后者,这会是一个更分布式、更聪明、更高效的科研生态。

提问: 我更关心的是安全问题,最好是更强的安全性。在 2026 年,AI 有很多可能出问题的方式,其中一个我们非常紧张的方向是生物安全。现在这些模型在生物领域已经相当强了,目前无论是 OpenAI,还是整个世界的总体策略,大多还是试图 限制谁可以接触这些模型,并且通过各种分类器,阻止模型帮助人们制造新的病原体。但我不认为这种方式还能持续很久。你怎么看?

Sam Altman:我认为,世界在 AI 安全,尤其是 AI 生物安全这件事上,需要完成一次根本性的转变——从“封堵(blocking)”,转向“韧性(resilience)”。

我一位联合创始人曾用过一个我非常喜欢的类比:火灾安全。火最初为人类社会带来了巨大的好处,随后它开始烧毁整座城市。人类最开始的反应,是尽可能去限制火。我最近才知道,“宵禁(curfew)”这个词,最早就和“晚上不允许生火”有关,因为城市会被烧掉。

后来,我们改变了思路,不再只是试图禁止火,而是提高对火的韧性:我们制定了消防规范,发明了阻燃材料,建立了一整套体系。现在,作为一个社会,我们在应对火灾这件事上已经做得相当不错了。

我认为,AI 也必须走同样的路径。AI 在生物恐怖主义方面会成为一个真实的问题;AI 在网络安全上也会成为一个真实的问题;但与此同时,AI 也是这些问题的重要解决方案。

因此,我认为这需要的是全社会层面的努力:不是依赖少数“我们信任的实验室”永远正确地封堵风险,而是建设一种具有韧性的基础设施。因为这个世界上,必然会存在大量优秀的模型。我们已经和很多生物研究人员、公司讨论过,如何应对“新型病原体”的问题。确实有很多人投入其中,而且也有不少反馈认为,AI 在这方面是有帮助的,但这不会是一个纯技术问题,也不会是一个完全靠技术解决的问题。整个世界都需要以一种不同于过去的方式来思考这件事。坦率地说,我对当前的状态非常紧张。但我也看不到除“以韧性为核心”的路径之外,还有别的现实选择。而且,从正面看,AI 确实可以帮助我们更快地建立这种韧性。

不过,如果今年 AI 真的出现一次“明显、严重”的失败事件,我认为生物安全是一个相当合理的“风险爆点”方向。再往后一年、两年,你也可以想象,还有很多其他事情可能会出大问题。

AI 学习效率提高后,人与人之间协作还重要吗?

提问:我的问题和“人类协作”有关。随着 AI 模型不断变强,它们在个人学习方面非常高效,比如快速掌握一个新学科。这一点我们在 ChatGPT 和教育实验中已经看到,也非常认可。但我经常会反复想到一个问题:当你可以随时得到答案时,为什么还要花时间、甚至承受摩擦,去向另一个人提问?你之前也提到,AI 编程工具可以用极快的速度,完成过去需要人类团队协作才能完成的工作。所以,当我们谈“协作、合作、集体智能”时,人类 + AI 是很强的组合,那人类与人类之间的协作会发生什么变化?

Sam Altman:这里面有很多层问题。我年纪比在座的大多数人都大一点。但即便如此,Google 出现的时候,我还在上中学。那时老师试图让学生承诺“不使用 Google”,因为大家觉得:如果你随手就能查到一切,那为什么还要上历史课?为什么还要记忆?

在我看来,这种想法完全不可理喻。我当时的感觉是:这会让我变得更聪明,学到更多东西,能做更多事情,这就是我成年后要长期使用的工具。如果因为它存在,就让我去学那些已经被淘汰的技能,那反而是疯狂的。

这就好比:在你明明知道已经有计算器的情况下,却还强迫我去学算盘——那在当时可能是重要技能,但现在已经没有价值了。我对 AI 工具的看法是一样的。我理解,在当前的教育体系下,AI 工具确实成了问题。但这恰恰说明,我们需要改变教育方式,而不是假装 AI 不存在。

“让 ChatGPT 帮你写东西”这件事,就是未来世界的一部分。当然,写作训练仍然重要,因为写作是思考的一部分。但我们教人如何思考、以及如何评估思考能力的方式,必须发生变化,而且我们不应该假装这种变化不存在。我对此并不悲观。

那 10% 极端自学能力很强的学习者,已经表现得非常出色了。我们会找到新的方式,重构课程体系,把其他学生一起带上来。至于你提到的另一点——如何让这不是一个“你一个人对着电脑变得很厉害”的过程,而是一个协作过程。目前为止,我们并没有看到 AI 导致人类联系减少的证据,这也是我们在持续观察和测量的事情。

我的直觉恰恰相反:在一个充满 AI 的世界里,人与人之间的连接会变得更有价值,而不是更没价值。我们已经看到一些人开始探索新的界面,来让协作变得更容易。在我们考虑自研硬件和设备时,甚至一开始就在思考:“多人协作 + AI” 的体验应该是什么样子?

虽然现在还没有人真正把这件事完全做对,但我认为,AI 会以前所未有的方式,让这种协作成为可能。你可以想象:五个人围坐在一张桌子旁,旁边还有一个 AI 或机器人,整个团队的生产力会被大幅放大。未来,每一次头脑风暴、每一次问题解决,AI 都会成为团队的一部分,帮助整个群体做得更好。

Agent 大规模进入生产系统,最大的被低估风险是什么?

提问: 随着 Agent 开始大规模运行、直接操作生产系统,你认为 最被低估的失败模式 是什么?是安全、成本、可靠性吗?以及,哪些“艰难但重要的工作”目前投入还不够?

Sam Altman:你提到的这些问题,几乎每一个都成立。有一件事让我个人、也让我们很多人都感到意外。我第一次用 Codex 时,非常确信一件事: “我绝对不会给它完全、无人监督的电脑访问权限。”

我坚持了大概两个小时。然后我想:它看起来真的在做非常合理的事情;每一步都要我点确认实在太烦了;不如先打开一会儿看看会发生什么。结果,我从来没有再把完全访问权限关掉。我发现,很多人都有类似的经历。

这让我真正担心的是:这些工具的能力和便利性太强了,而它们的失败概率可能很低,但一旦失败,后果可能是灾难性的。因为失败发生得不频繁,人们会慢慢滑入一种状态:“应该没事吧。”

但随着模型变得越来越强、越来越难理解,如果模型内部存在某种微妙的错位,或者在长时间、复杂使用后出现新的系统性问题,你可能已经在某个系统里埋下了一个安全漏洞。你可以对“AI 失控”的想象有不同程度的科幻倾向,但我真正担心的是:人们会被这些工具的强大和愉悦感牵着走,而不再认真思考它们的复杂性。能力会上升得非常快;我们会习惯某个阶段的模型行为,并因此信任它; 但却没有构建足够健全的、整体性的安全基础设施。

于是,我们会在不知不觉中,走向一个危险状态。

我认为,围绕这一点,本身就值得诞生一家伟大的公司

AI 应该如何进入幼儿与基础教育?

提问:我想回到教育的话题。我在高中时看到身边的同学用 ChatGPT 写作文、做作业;现在在大学,我们在 CS、人文等各个领域都在讨论 AI 政策。我想问的是:在幼儿园、小学、初中这些塑造思维方式的关键阶段,你作为一名父亲,如何看待 AI 对教育的影响?

Sam Altman:总体来说,我是反对在幼儿园里使用电脑的。幼儿园应该更多是:在户外跑来跑去,接触真实的物体,学习如何与他人互动。所以,不只是 AI,我甚至觉得大多数时候,幼儿园里连电脑都不应该有。

从发展角度来看,我们仍然没有完全理解技术对儿童的长期影响。关于社交媒体对青少年的影响,已经有很多研究了,而且结果相当糟糕。我的直觉是:大量技术对更小年龄儿童的影响,可能更糟,但讨论得却少得多。在我们真正理解这些影响之前,我不认为有必要让幼儿园阶段的孩子大量使用 AI。

提问:我们在生物医药领域。生成式 AI 在临床试验文档、法规流程等方面已经非常有帮助。现在我们也在尝试用它做药物设计,特别是化合物设计。但一个很大的瓶颈是 三维推理能力。你认为这里会出现一个关键拐点吗?

Sam Altman:这个问题我们一定会解决。我不确定是不是 2026 年就能完成,但这是一个非常普遍、非常高频的需求。我们大概知道该怎么做,只是目前还有很多更紧急的方向需要推进。但这件事一定会到来。

参考链接:

https://www.youtube.com/watch?v=Wpxv-8nG8ec&t=2s