OpenAI大量内幕曝光,7 年「潜伏」调查扒出 AI 帝国真面目,奥特曼坐立难安公开阴阳
1 天前 / 阅读约19分钟
来源:36kr
公司的宣传和实际运作之间出现了错位

回到 2019 年,OpenAI 还只是一个实验室、一个小作坊,Sam Altman 也 Y Combinator 里的一员,甚至还有一次创业失败的经历。 

那时的 OpenAI 是什么样子?前《华尔街日报》记者、现《MIT 技术评论》的人工智能高级编辑 Karen Hao,最有发言权。她在当时就得到机会深入内部,与 Greg Brockman、Ilya Sutskever 等人交流。 

她也慢慢发现,这家公司有相当多的「隐雷」。在 Karen Hao 的笔下,Sam Altman 像是一位善于控制叙事的「说书人」,而非一个以一致性和透明度为基础的 CEO。他与马斯克的恩怨,从头到尾都像是 PUA 的一次精彩演绎。 

事实证明,这些「隐雷」在后来导致了 OpenAI 一系列的「宫斗」大戏,以及接二连三的人员出走。 

她最深的担忧来自于:这样的人,并不直言真相,却能在不撒谎的前提下,取得你全部的信任。

值得一提的是,在 Karen Hao 的这本《Empire of AI》之外,还有几本聚焦 OpenAI 的书即将问世。其中包括由 Ashlee Vance 撰写的一部作品,获得了 OpenAI 极少授予的「幕后访问权限」。Sam Altman 曾在公开回应中表示,虽然没有一本书能百分百准确地还原一切,但这些作者确实花了不少时间,试图贴近事实与复杂性。 

相较之下,《Empire of AI》的观察更贴近记者视角,Karen 并未获得同等级别的内部权限,这也使她的书在某些读者看来,可能更具批判性与距离感。 

上周,Karen Hao 的新书《Empire of AI》正式出版,这是她 近 7 年来为 MIT Technology Review、《华尔街日报》和《大西洋月刊》报道人工智能的结晶。书中基于 300 多次采访,涉及约 260 人,其中包括 90 多名现任和前任 OpenAI 员工的 150 多次采访,以及大量的通信和文件资料。本文为节选,经编译调整,带你走回 2019 年时,一切都还没发生,但已经埋下种子的时刻。 

2019 年 8 月 7 日,我来到了 OpenAI 的办公楼。当时 31 岁的 Greg Brockman 是 OpenAI 的首席技术官,不久后他还会成为公司总裁,他从楼梯下来迎接我,脸上带着略显迟疑的微笑,和我握手。 

我们从没让过一个外人这样深入接触公司,」他说。 

那时,除了 AI 研究圈内的人,很少有人听说过 OpenAI。而作为 MIT 科技评论专门报道人工智能进展的记者,我一直密切关注着这家公司的动向。 

在那之前的几年里,OpenAI 在 AI 研究领域有点像「 被抱养的孩子 」。它提出了「十年内实现 AGI(通用人工智能)」的大胆设想——许多 AI 专家对此完全不信。 

对业界来说, OpenAI 资金充足得有些过分,但方向又不够清晰 ,把大量钱花在了宣传上,而同行们经常批评他们的研究并不新颖。 

有的人对其又爱又恨——作为一个非营利组织,OpenAI 宣称不追求商业化,它曾是一个难得的学术乐园,是「边缘想法」的避难所。 

然而,在我到访前的六个月里,OpenAI 接连发生的变化,显示出 公司在轨道上正经历一次大转向 。首先,是他们「吊胃口」般地宣布却又拒绝开放 GPT-2,引发无数争议。 

接着,Sam Altman 突然离开了 YC,出任 OpenAI CEO,并公布了新的「有限利润」结构。我已经安排好到访,OpenAI 随后又宣布与微软达成交易,让后者拥有优先商业化权,并且强制只能使用微软的云平台 Azure。 

这些消息带来了新的争议、外界的激烈猜测,以及越来越多的关注,影响开始超越科技圈本身。当我和同事们报道 OpenAI 的发展时,难以体会整个事态的份量。 

可以肯定的是,OpenAI 正开始对 AI 研究产生实质影响,并改变政策制定者的认知。公司转型为部分盈利组织的决定,将在业界和政府范围引起连锁效应。 

某个深夜,在我编辑的建议下,我写邮件联系了 OpenAI 的政策总监 Jack Clark(之前已采访问过他):我会在旧金山停留两周,现在正是报道 OpenAI 历史的关键时刻,他们愿意接受深度专访吗?Clark 把我转给了公司公关负责人,对方同意了 OpenAI 重新向公众「自我介绍」。他们给了我三天可以采访管理层、进入公司内部的时间。 

为什么一定是 AGI ? 

Brockman 和我在一间玻璃会议室坐下,OpenAI 的首席科学家 Ilya Sutskever 也在场。他们肩并肩坐在长桌一侧,气氛分明:Brockman 是工程师、实干派,身体前倾,略显紧张,试图留下好印象;而 Sutskever 则是学者兼哲学家,靠在椅背上,悠闲淡定。 

我打开笔记本,开始提问。「OpenAI 的使命是确保 AGI 造福人类。为什么要在这个目标上投入数十亿美元,而不做别的事情?」 

Brockman 坚决点头,显然很习惯为 OpenAI 辩护。「我们如此关心 AGI,并认为必须建造它,是因为它能帮助解决那些人类自身难以企及的复杂问题。」 

他举了两个 AGI 信徒常用的例子:气候变化——「超级复杂的问题,我们怎么解决?」医疗健康——「看看医疗现在在美国多重要,怎么才能让大家获得更好、成本更低的治疗?」 

说到这里,他分享了朋友的亲身经历:朋友患有罕见疾病,为了确诊奔波于各类专科医生之间,过程既费力又沮丧。假如有了 AGI,可以集成各领域专长,这样的人不再需要为寻求答案耗费巨大精力和情绪。 

「为什么非得要 AGI,而不是 AI 就能做到?」 我追问。 

这个区分很重要。AGI 一词曾经鲜有人提,被视为技术词典中的「冷门条目」。但部分由于 OpenAI 的推动,现在它逐渐变得主流。 

OpenAI 的定义是,AGI 是 AI 研究的理论顶点:一种软件,拥有与人类同等的复杂性、灵活性和创造力,大部分(尤其具有经济价值的)任务上能与人类媲美甚至超越

但这里的关键词是「理论上的」。 

数十年来,学界一直争论,基于二进制芯片的软件是否能真正模拟大脑和诸如意识等生物过程,实现「智能」。至今还没有确切证据说明这是可能的。而且,这还没触及「该不该这样做」的伦理问题。 

而 AI,是当下流行用来描述现有/近期可以实现的技术,依靠强大的模式识别能力(即机器学习)已经在气候应对与医疗等领域显示出巨大应用潜力。 

Sutskever 也加进了讨论。他说,面对这些复杂的全球挑战,「 本质的瓶颈在于,人类太多了,但沟通不够快,效率不够高,还总有利益冲突。 」而 AGI 不同,「想象一下,一整个智能计算机网络,大家都做医学诊断,结果以极快速度交流。」 

听起来,这似乎意味着 AGI 目标就是「取代人类」?事后我与 Brockman 单独聊时,把问题抛给了他。 

「不,」Brockman 立刻否认。「这非常关键。技术的目的是什么?为什么我们要创造新技术?人类几千年来一直这么做,是因为技术服务于人。AGI 也是如此——至少我们想象和期望中它应该如此。」 

不过,他也承认,任何技术都会造成一些职业消失,同时创造新的岗位。OpenAI 的挑战,就是要打造那种让所有人拥有「经济自由」,能在新世界继续「有意义生活」的 AGI 。如果能做到,将是把「生存」从「必须劳动」中解放出来。 

「我其实觉得,那会非常美好。」 

谈话过程中,Brockman 重申了一个大前提:「其实我们并不是决定 AGI 会不会到来的人。」 

这是硅谷常用的论调:「 反正别人也会做 。」 「形势已经不可逆转,我们唯一能影响的是,AGI 出生时的初始条件。」 

「OpenAI 是什么?我们的目标是什么?我们究竟在做什么?我们的使命就是确保 AGI 造福全人类。具体做法就是:建造 AGI 并将其经济成果分发出去。」 

他语气笃定,好像已经完全解答了我的疑问。但 其实我们只是绕了一圈,又回到了出发点。

没人知道 AGI 到底长啥样 

我们的对话像打转的圈,不知不觉就到了时间。我希望获得更多具体信息: OpenAI 到底在做什么?他们却表示,事物本身就难以明确——他们自己也无法预知。

既然如此,怎么就如此确信 AGI 一定「利大于弊」呢?我换个角度追问,请他们举几个负面影响的例子。毕竟 OpenAI 建所的最初理由之一,就是要比别人先造出「好」的 AGI,防止「坏」的先出现。 

Brockman 试着回答:比如 Deepfake 深度伪造技术,「目前来看用它做的事情未必让世界变得更美好。」 

我自己补充了气候变化相关的问题:近年来,美国麻省大学阿默斯特分校的一项研究发现,为训练越来越大的 AI 模型,碳排放量惊人且持续上升,AI 自身也是环境负担。 

Sutskever 坦言,「这点毋庸置疑」,但他认为回报值得,因为 AGI「其中一个作用就是反过来弥补环境损耗」。不过,他没能给出具体实例。 

「数据中心越“绿色”当然越好,」他说。 

「毫无疑问。」Brockman 接话。 

Sutskever 持续阐述:「数据中心是最大的能源、用电消耗者。」 

「全球占比大约 2%。」我补充。 

「比特币大约 1%?」Brockman 问。 

「哇!」Sutskever 突然情绪激动,但聊到这里已近 40 分钟,这番表现有点像刻意为之。 

后来他还在《天才制造者》的采访中对《纽约时报》记者 Cade Metz 说过毫无讽刺地表示,「我觉得,很可能整个地球表面最终都会被数据中心和电站覆盖。」会有一场「计算能力的海啸……像自然灾害一样」。AGI 和它需要的数据中心「太有用了,不可能不被建造」。

我再次质疑:「也就是说,你们在豪赌,AGI 能在它自己带来环境灾难之前解决全球变暖?」 

「我不会太钻牛角尖,」Brockman 赶紧打断。「整体来看,我们正站在 AI 进步的坡道上。这已经超出 OpenAI 本身,是整个领域在向前。而社会也实际从中受益。」 

「微软那天宣布投资 10 亿美元,市值涨了 100 亿美元。说明资本市场也相信,短期技术都能带来正向回报。」 

因此,OpenAI 的策略很简单:跟上 AI 进步的步伐。「这才是我们应当坚持的标准。只要不断向前,我们就没偏离道路。」 

当天晚些时候,Brockman 又重申, OpenAI 面临的最大挑战,就是没人知道 AGI 到底长啥样 。他和同行们只能边做边摸索,逐步发现这项技术的真正形态。 

他的话听起来像那句名言:米开朗基罗雕大卫,确信雕像本就藏在石头里,他要做的只是不断打磨。

原本安排可以在公司食堂与员工共进午餐,但突然变故,让我必须离开大楼——Brockman 特意全程陪同。我们走到街对面的露天咖啡馆,那是 OpenAI 员工最爱去的小据点。 

这成了我后续参访的主旋律:很多楼层不让看,会议不让参加,受访者经常偷偷望向负责公关的同事,紧张自己有没有失言。后来我得知,我离开后,Jack Clark 在内部 Slack 上专门警告员工「除非正式安排否则不要私下和我说话」;门卫还收到我的照片,被要求如果未经批准看到我进楼就要特别注意。 

这一切显得异常,毕竟 OpenAI 一直标榜「透明」。我开始纳闷:如果研究最终都是公开造福社会的,他们究竟在隐藏什么?

午餐及接下来的时间,我进一步了解 Brockman 为何要创办 OpenAI。他少年时就沉迷于「复制人类智能」的想法,阅读英国数学家图灵那篇经典论文点燃他的激情。 

论文开头「模仿游戏」(The Imitation Game)提出「机器能思考吗?」并引出了图灵测试的思想:只要机器和人对话,不被分辨出身份,就已算过关——这是 AI 领域「入门故事」之一。 

Brockman 当年为此写了个图灵测试小游戏,上传后有 1500 多次访问,让他觉得「我就想搞这样的事」。 

2015 年,AI 取得飞跃进展,Brockman 觉得是时候追回初衷,加入 OpenAI 成为联合创始人。他给自己写下笔记,「 只要能推动 AGI 实现,哪怕打扫卫生也愿意做 。」 

2019 年结婚,他还特地在 OpenAI 的办公室举办仪式,背景是公司六边形 Logo 定制的花墙,Sutskever 亲自主持仪式。实验用的机械手臂充当「伴郎」,拿着戒指守在过道上,颇有末世科幻的画面感。 

「我这辈子就想干 AGI 这事,」Brockman 说。 

「是什么力量驱动你?」我问。 

「你觉得这辈子有多大概率会遇到颠覆文明的新技术?」他反问。 

他坚信,自己和团队,有独特条件来推动技术变革。「我真正想参与的,是那种‘如果少了我事情就不会这样展开’的问题。」 

事实上,他并不想只做个「打杂的人」,而是真正想做 AGI 的「舵手」。他身上有强烈的渴望——希望有朝一日,自己的故事可以像讲述历史伟大创新者那样被后人传颂。

一年前,他曾在一个小型高端创业者聚会自嘲:「有谁记得著名的 CTO?」现场没人能举出哪个 CTO 的名号。「这就说明问题。」 

2022 年,他成为 OpenAI 总裁。 

哪种技术真的造福全人类了? 

整个采访期间,Brockman 始终强调,OpenAI 结构的调整并不意味着使命变了。新引进的「有限利润」和新投资人反而增强了使命感。「我们找到了真正以使命优先而不是回报优先的投资人,这真是稀有。」 

OpenAI 终于有足够的长期资源来扩展模型,领先竞争对手。Brockman 说,这非常关键,否则 OpenAI 的理想就会落空。假如 OpenAI 落后,就没机会引领「人类造福的 AGI」变革。 

后来我才意识到,这一假设—— 「非快不可,否则一切归零」,正推动所有 OpenAI 的关键举措和一切深远后果每一次研究进展都像倒计时一样,不能以「稳妥」为主,而是必须抢在别人前冲到终点。

这也就成了 OpenAI 消耗巨量资源的理由:算力消耗(不考虑环境代价)、数据搜集(哪怕未经同意,不等法规完善)。

Brockman 再次提到微软市值上涨 100 亿美元,「这说明 AI 确实开始给现实世界带来价值。」但他也承认,这些价值现在还是被大企业「集中享用」。所以 OpenAI 的目标是二次分配 AGI 收益,让所有人都能受益。 

「历史上有哪种技术真的实现了成果普惠?」我问。 

「其实可以看看互联网……」他有点踌躇,然后回答。「当然也有问题对吧?任何颠覆性技术,都很难做到‘利大于弊’、‘弊端最小化’。」 

「火也是例子,」他说,又补充,「火有负面影响,所以人类要学会控制,有一致的标准。」 

「汽车也是好例子。很多人有车、车子带来好处,但也有很多外部性,对世界未必全是积极。」他语气迟疑地结束。 

「我理解我们的愿景,其实和‘互联网的积极面’、‘汽车的积极面’、‘火的积极面’差不多。只是具体技术实现方式天差地别。」 

他说到这儿眼睛一亮:「你看,电力设施、水电公司都是高度集中的实体,为所有人低成本高效率地提供生活改善。」这是个不错的比喻。但他似乎仍然不能说清 OpenAI 怎么成「公用事业」。或许是靠普惠基本收入,或许有其他方式。 

他最后回到确定的那一点: OpenAI 致力于分配 AGI 红利、让每个人都获得经济自由。 「我们说的是真的。」 

「到目前为止,技术确实让整个社会进步,但副作用是集中效应更强。」他总结说,「AGI 可能更极端。如果所有价值都被某一方锁死呢?社会已经在朝那个方向走——但我们还没见过那一步。我不希望看到那样的世界,也不愿意成为那个世界的推手。」 

一切若只如初见 

2020 年 2 月,我在 MIT 科技评论刊发了这篇报道,基于我在公司里的观察、三十多次采访和一些内部资料。 

公司的宣传和实际运作之间出现了错位,」我写道。「长久以来,内部的强烈竞争和对资金的渴求逐渐侵蚀了其早期承诺的透明、开放与协作理念。」 

几个小时后,Elon Musk 连续发了三条推特回应: 

「OpenAI 理应更开放(imo)。」 「我对 OpenAI 没有控制权,了解也很有限。对 Dario 负责安全没信心」,他指的是时任研究负责人 Dario Amodei。 「所有开发高阶 AI 的组织都应被监管,包括特斯拉。」 

随后,Sam Altman 发了一封邮件给全体员工。 

「关于 MIT 的报道,我想谈谈我的看法。虽然不算灾难性,但确实是负面报道。」 

他坦言,报道确实指出了外界认知与 OpenAI 现实的脱节。对此,公司无需改变日常运作,只要微调对外表述就行。

「我们学会了灵活调整,这是好事,」他说,包括调整组织结构、提升保密级别,「都是为达成使命更好地学习。」  

他建议,暂时不要理会这篇报道,等几周后再集中对外宣讲公司坚守初衷。「正好借 API(应用接口)方案表达我们的开放和红利分配战略。」 

「我最在意的是,有人泄露了公司内部文件。」他表示公司已开展调查,会持续通报进展。 

他还建议 Amodei 与 Musk 当面沟通,对方「这次批评算温和」,但「也是不好的事」。为避免误解,他写道,Amodei 的工作和 AI 安全极其重要。以后公司也应该找到合适时机,公开为团队辩护(但现在先别成新闻口中交锋的反面对立)。 

从那以后,OpenAI 三年没有再接受我的采访。 

原文地址:https://www.technologyreview.com/2025/05/19/1116614/hao-empire-ai-openai/