整个硅谷被Meta 1亿美刀年薪砸懵了,Anthropic 联创正面硬刚:团队使命比黄金贵,多少钱都挖不动
14 小时前 / 阅读约29分钟
来源:36kr
当 AI 能独立完成 50% 以上的经济任务并获取相应薪酬时,AGI(通用人工智能)的真正拐点就将到来。

当 AI 能独立完成 50% 以上的经济任务并获取相应薪酬时,AGI(通用人工智能)的真正拐点就将到来。

过去三周,硅谷上演了一场史无前例的“1 亿美元抢人大战”——Meta Superintelligence Labs(MSL)刚一成立,便向 OpenAI、Anthropic、Google DeepMind 等顶尖 AI 企业的核心人才抛出天价 Offer:首年薪酬包超 1 亿美元,四年封顶 3 亿美元,只为争夺少数能定义 AI 未来的“超级智能工程师”。

这场关于科技人才的豪赌背后,是科技巨头们对 AI 人才垄断的疯狂竞逐,Meta 甚至不惜以人均过亿的薪酬挖角 OpenAI 感知团队负责人,总成本高达几十亿美元。

然而,在这场资本狂欢中,Anthropic 联合创始人 Benjamin Mann 在一档名为《Lenny's Podcast》的博客栏目中提出了冷静的警示:AI 的指数级进步将重塑就业市场,约 20% 的岗位可能被重新定义甚至消失。

作为 GPT-3 的核心架构师之一,Ben 曾亲历 OpenAI 的早期发展,却因对 AI 安全性的坚持,选择带领团队出走,创立了以“对齐”(Alignment)为核心使命的 Anthropic。

2020 年,Ben 与 OpenAI 整个安全团队一起离开了公司,并共同创立了 Anthropic。据报道,目前估值超过 1000 亿美元。

如今,他在 Anthropic 担任产品工程技术主管,他将大部分时间和精力投入到使 AI 变得有用、无害和诚实这件事情上。

Ben 对于 AI 影响就业的预测基于一个关键概念——“经济图灵测试”(Economic Turing Test):当 AI 能独立完成 50% 以上的经济任务并获得相应薪酬时,AGI(通用人工智能)的真正拐点就将到来,而这一时刻可能就在 2027~2028 年。

Ben 的预测并非全是乐观的:他直言,AI 的普及将导致约 20% 的岗位被重塑甚至消失,尤其是在编程、客服等白领领域。但他也强调,这场变革并非全然悲观——通过安全对齐研究,AI 可以成为人类的协作伙伴而非威胁。这一点在 Anthropic 的 AI 助手 Claude 上得到了印证:其备受喜爱的“温和个性”正是 AI 安全研究的直接成果。

对于未来,Ben 的建议既现实又前瞻:他不再依赖传统教育模式,而是教给孩子三项关键技能,以应对 AI 时代的挑战。这场对话不仅揭示了 AI 技术的前沿动态,更是一场关于人类如何驾驭技术浪潮的深度思考。

以下为播客翻译,InfoQ 在不改变原意的基础上进行了编辑:

AI 人才争夺战

Lenny:Ben,很高兴能和你聊天。我想先聊一件非常及时的事情,关于本周发生的事情。现在新闻里有件事,就是扎克伯格在所有顶尖人工智能研究人员向他们提供 1 亿美元签约奖金之后,他正在从所有顶尖的人工智能实验室挖人。我想你正在处理这件事,我只是好奇,你在 Anthropic 内部看到了什么?你对 Meta 的这个策略有什么看法?你认为接下来会如何发展?

Ben:我认为这是时代的产物。我们正在开发的技术非常有价值,公司也在快速发展,这个领域的许多其他公司同样如此。

但我觉得,Anthropic 受到的影响可能比其他公司小得多,因为这里的员工非常注重使命。他们留下来是因为他们看到了更大的意义——在 Meta 这样的公司,最好的情况可能是赚钱,但在 Anthropic,我们有机会真正影响人类的未来,推动人工智能和人类的共同繁荣。对我来说,这根本不是一个艰难的选择。

当然,我理解每个人的处境不同,有些人可能会面临更复杂的考量。如果有人真的接受了那些巨额报价,我不会怨恨他们。但如果换作是我,我绝对不会选择离开。

Lenny:就 Meta 给出的 Offer 而言,你认为 1 亿美元的签约奖金是真实的吗?你见过出价这么高的 Offer 吗?

Ben:我非常确信这个报价是真实的。如果你只考虑个人对公司发展轨迹的影响——以我们为例,我们卖的是“抢手货”。如果我们能获得 1%、5% 甚至 10% 的效率提升,我们的推理堆栈价值会变得极其惊人。所以从商业角度来看,四年 1 亿美元的薪酬,相比创造的价值,实际上相当便宜。

我们正处于一个前所未有的规模时代,而且情况只会变得更疯狂。如果你按照公司支出的指数增长来推算——目前资本支出大约每年翻倍,整个行业在这方面的投入可能已达到 3000 亿美元左右。所以 1 亿美元在这种背景下只是杯水车薪。但再过几年,如果规模再翻几番,我们谈论的将是数万亿美元级别,到那时,这些数字可能就难以衡量了。

Lenny:沿着这个思路,很多人对人工智能的进步感到担忧——我们在很多方面都遇到了瓶颈,感觉新模型不如以前那样能带来明显的智能飞跃。但我知道你不认同这个观点。我知道你不相信我们在规模化方面已经达到了平台期。能不能谈谈你观察到了什么?以及你认为人们忽略了哪些关键因素?

Ben:这有点好笑,因为这个故事大约每六个月就会出现一次,但从来没有真正应验过。我真希望人们能安装一个“胡说八道检测器”,当他们看到这种论调时就能自动触发。实际上,我认为进展一直在加速——看看模型发布的节奏就知道了:过去是一年一次,现在随着训练后技术的进步,我们每个月或每三个月就能看到新模型发布。

这里存在一个有趣的时间压缩效应。我们的 CEO Dario Amodei 把它比作接近光速的旅程:飞船上的一天相当于地球上的五天。我们正在加速,时间膨胀效应越来越明显。这可能是人们觉得进步放缓的原因之一。但如果你仔细看缩放定律,它们依然成立。确实,我们需要从单纯的预训练转向强化学习等方式来延续扩展规律,但这就像半导体行业——重点不在于单个芯片能装多少晶体管,而在于整个数据中心能部署多少计算单元。你只需要稍微调整下定义就能继续推进。

令人惊讶的是,这是世界上少数几个跨越多个数量级依然成立的规律。在物理学中,很多定律在 15 个数量级范围内就会失效,所以这个现象真的很不可思议。

Lenny:你说的现象本质上是:因为新模型发布越来越频繁,人们总是拿最新一代和上一代比较,觉得进步不大。但如果把时间拉长看,相比以前一年才有一个重大突破的节奏,现在的进步其实更快。只是因为我们看到了更多迭代版本,才产生了这种错觉。可以这样理解吗?

Ben:对于那些说进展放缓的人,我其实能理解他们的感受。在某些特定任务上,我们确实已经达到了智能饱和点——比如从结构化文档中提取信息这种简单任务,可能已经做到了 100% 准确。我们经常看到这样的现象:当一个新的基准测试发布后,6~12 个月内就会被完全攻克。所以真正的限制可能在于:我们需要更好的基准测试和更具雄心的工具,才能充分展现当前 AI 系统的智能水平。

定义 AGI 和经济图灵测试

Lenny:这其实是个很好的过渡,让我们能以更具体的方式思考 AGI,并准确定义 AGI 的含义,你能展开谈谈 AGI 定义吗?

Ben:我认为“AGI”这个术语含义太过丰富,所以现在我们内部已经不太使用这个词了。我更喜欢用“变革型人工智能”这个概念——重点不在于它能不能做所有人类能做的事,而在于它是否能够真正改变社会经济结构。

这里有个很具体的衡量方法,叫做“经济图灵测试”(虽然不是我提出的,但我很喜欢这个思路)。想象一下:如果你雇佣一个 Agent 工作一个月或三个月,最后发现它其实是机器而不是人类,那它就通过了这个岗位的经济图灵测试。

我们可以把这个概念扩展,就像经济学家用“一篮子商品”来衡量购买力或通胀那样。我们可以定义“一篮子工作岗位”,如果 AI 系统能通过其中 50% 金钱加权岗位的经济图灵测试,那我们就进入了变革型 AI 时代。具体阈值是多少并不那么重要,关键在于——一旦突破这个门槛,我们预计全球 GDP 增长、社会结构、就业市场等都将发生巨变。

社会制度具有粘性,变革通常很缓慢。但当这些突破真正发生时,你就会知道:一个全新的时代开始了。

Lenny:你们的 CEODario Amodei 最近谈到了 AI 如何占据一大部分白领的工作,导致失业率可能会上升 20% 左右,我知道你在这个问题上观点更加鲜明——关于人工智能对职场的实际影响程度,可能远超人们当前的认知。能不能具体谈谈,你认为在人工智能对就业的影响方面,有哪些关键点是被大众忽视的?既包括即将产生的影响,也包括已经在发生的影响?

Ben:从经济学角度来看,失业可以分为几种类型:一种是工人缺乏经济所需的新技能,另一种是某些工作直接被取代。我认为实际情况是两者的结合。但如果我们展望 20 年后的世界——那时我们早已越过技术奇点——我很难想象资本主义还会保持现在的形态。

如果我们成功开发出安全可靠的超级智能,就像 Dario 在《爱与恩典的机器》中描述的那样:一个数据中心就能容纳整个天才国度,这将极大加速科学、技术、教育和数学领域的进步。但这也意味着我们将生活在一个物质极大丰富的世界,劳动力几乎免费,任何专业服务都能即时获取。到那时,“工作”这个概念本身可能都会发生根本性改变。

我们现在正处于一个艰难的过渡期:人们还在工作,资本主义体系仍在运转,但 20 年后的世界将完全不同。技术奇点之所以被称为“奇点”,正是因为越过这个点后,变化速度之快、程度之深,已经超出我们的想象能力。

从长远来看,在一个物质富足的世界里,工作本身可能不再那么重要。但关键在于如何平稳度过这个转型期。

Lenny:我想重点探讨几个方面。首先,虽然现在媒体上充斥着关于 AI 的各类头条新闻,但大多数普通人可能还没有真正切身感受到这些变化,也没有亲眼见证实际影响的发生。这导致很多人会产生这样的想法:“也许 AI 确实在改变某些事情,但就我个人而言,我的工作看起来一切如常,似乎什么都没改变。”

在这种情况下,你认为目前已经发生的哪些 AI 带来的实际变化,是大多数人尚未意识到或者存在误解的?换句话说,在公众视线之外,AI 已经在哪些领域悄然改变了就业市场的真实面貌?

Ben:我认为部分原因是人类天生不擅长理解指数级增长。在图表上,指数曲线初期看起来几乎是平的,直到拐点突然出现,曲线开始垂直上升——这正是我们讨论的情况。我个人在 2019 年 GPT-2 发布时就意识到:“这就是通向 AGI 的路径”,但很多人直到 ChatGPT 出现才真正感受到变化。

让我列举几个快速变革的领域:比如客户服务:我们的合作伙伴 Fin 和 Intercom 已经实现 82% 的客户问题自动解决,无需人工干预;在比如软件开发:我们的 Claude Code 团队约 95% 的代码由 AI 生成,这意味着小团队能产出 10-20 倍的代码量;最后是知识工作:原本需要放弃的复杂工单,现在可以深入处理。

短期内,我们将看到生产力的大幅提升。我从未听过成长型公司的招聘经理说“我不想再招人了”。这是乐观的一面。但对于技能要求较低的工作,即使整体经济向好,仍会有大量人群面临失业风险。这需要社会提前规划应对措施。

如何应对 AI 带来的不确定性

Lenny:好的,我想继续深入这个话题,但更重要的是给听众一些实用建议——在这个快速变革的时代,人们该如何为自己创造优势?当听到这些 AI 发展前景时,很多人第一反应可能是:“这听起来不太妙,我需要提前做些准备。”

我知道你不可能对所有问题都有答案,但对于那些希望未雨绸缪、确保自己的职业和生活不被 AI 浪潮冲击的人们,你有什么具体建议吗?

Ben:即使作为身处 AI 变革中心的人,我也无法完全避免工作方式被颠覆的影响。这不仅仅是简单的岗位替代问题,而是整个工作范式正在发生根本性转变。这种转变终将影响我们每个人——包括我自己、Lenny,以及在场的所有人。

在过渡期内,我认为最关键的是培养两种核心能力:保持雄心壮志的远见,以及快速掌握新工具的学习力。那些固守旧工具的人终将被淘汰,就像我们看到的编程领域:虽然很多人已经习惯代码自动补全和简单问答,但真正高效的使用者会要求 AI 进行系统级重构,并且愿意反复尝试 3~4 次直到获得理想结果。完全重写的成功率远高于在旧代码上修修补补。

这种变革不仅发生在技术部门。我们的法律团队用 AI 进行合同批注,财务团队用 AI 完成 BigQuery 数据分析——这些原本需要专业人士完成的工作,现在通过 AI 工具就能高效解决。虽然初期使用需要克服恐惧心理,但突破舒适区才能获得突破性收益。

具体建议有三点:

深度使用工具:不要浅尝辄止,要像使用日常工作环境那样沉浸其中

设定更高目标:突破自我设限,AI 可能实现你原以为不可能的事

坚持多次尝试:首次失败后,可以换种方式提问,或直接重复尝试(由于随机性可能成功)

关于“被取代”的担忧,更准确的说法是:短期内威胁你的不是 AI 本身,而是那些更擅长使用 AI 的同行。在我们公司,虽然 AI 提升了团队效率,但招聘从未放缓。常有新人困惑:“如果会被取代,为什么还要招人?”答案很简单:我们仍处于指数增长的初期阶段,优秀人才始终是推动变革的核心力量。未来几年不是岗位消失,而是工作内涵的重构——这正是需要更多人才的原因。

Lenny:让我们换个角度思考——作为身处人工智能前沿的从业者,你们亲眼目睹了 AI 的发展轨迹和潜在影响。如果你们有自己的孩子,在了解所有这些发展趋势后,会重点培养孩子哪些方面的能力,帮助他们在 AI 主导的未来中获得成功?

Ben:是的,我有两个女儿,一个 1 岁,一个已经 3 岁了。我观察到 3 岁的孩子已经能自然地与 Alexa 互动,这让我对教育有了新的思考。她目前在蒙特梭利学校,这种强调好奇心、创造力和自主学习的教育方式让我深受启发。

如果是在 10 年或 20 年前,我可能会像大多数家长那样追求名校和课外活动。但现在,我认为培养这些核心品质更为重要:保持快乐的能力、同理心与善良、好奇心驱动学习、情感表达能力。

有趣的是,当我询问 AI 研究者最看重什么教育目标时,“好奇心”是被提及最多的品质。其次是创造力、友善、自主探索精神。这些特质构成了 AI 时代的教育新范式——不是记忆事实(AI 更擅长),而是培养机器无法复制的人类核心优势。

为什么离开 OpenAI 出去创业?

Lenny:让我们回到 Anthropic 的起源故事。众所周知,你和另外七位同事在 2020 年底离开了 OpenAI 创立了 Anthropic。能否谈谈这个决定背后的原因?你们当时洞察到了什么?我特别好奇的是,如果你愿意分享更多细节的话,在 OpenAI 的经历中,你们观察到了什么或经历了什么,最终促使你们做出了这个重大决定?

Ben:作为 OpenAI GPT-2/3 项目的核心成员,我不仅担任了关键论文的第一作者,还负责为微软进行技术演示,帮助他们完成 10 亿美元融资,并将 GPT-3 技术整合到 Azure 平台。这段经历让我深入参与了从研究到产品化的全过程。

在 OpenAI 期间,Sam 经常强调需要平衡三个“部落”:安全团队、研究团队和创业团队。但我始终认为这种框架存在问题。对于一家以"确保 AGI 安全过渡"为使命的公司来说,安全本应是贯穿所有工作的核心原则,而不是需要与其他部门制衡的独立单元。

我们(后来创立 Anthropic 的团队)深切感受到安全考量在关键决策中并非首要因素。这种认知差异源于根本性的风险评估分歧:如果你认为安全问题容易解决,或负面后果概率极低,自然会做出不同选择。但作为 OpenAI 安全团队的领导者们,我们坚信安全风险至关重要,特别是在技术前沿领域。

令人震惊的是,在全球每年 3000 亿美元 AI 投资的背景下,真正致力于安全研究的可能不足 1000 人。这种巨大的投入失衡正是我们离开的根本原因。我们希望建立一个既能推进前沿研究,又能将安全置于首位的组织。

有趣的是,当时我们甚至不确定安全研究能否取得实质进展——早期尝试的许多方法都因模型能力不足而失败。但现在随着技术进步,我们当年构想的许多安全措施终于变得可行。这种技术拐点的到来,验证了我们当初的判断和坚持。

从根本上说,关键在于:安全是否真的是首要任务?从那时起我们就一直在思考这个问题:你能否在保持技术领先的同时确保安全?以“阿谀奉承”问题为例,Claude 可以说是最不阿谀奉承的模型之一,因为我们在实际协调上投入了大量精力,而不仅仅是优化用户参与度指标。

宪法 AI 与模型协调

Lenny:我了解到您将大量精力投入在 AI 安全研究上,正如您刚才提到的,这确实是您思考 AI 发展的核心维度。不过在深入探讨这个原因之前,我想先请您谈谈:您如何看待这种既要确保安全又要保持技术领先的双重挑战?在实践层面,Anthropic 是如何平衡这两方面看似存在张力的目标的?

Ben:我们最初以为必须在安全与性能之间二选一,但后来发现这两者实际上是相互促进的凸优化问题。当我们的 Opus 模型达到技术前沿时,用户特别喜欢它的角色塑造和个性特征——这恰恰源自我们长期的对齐研究。Amanda Askell 在这方面做了开创性工作,她系统性地定义了 AI 助手应有的核心特质:既要保持乐于助人和诚实,又要在必要时坚定拒绝危险请求。比如当用户提出制造生物武器等不当要求时,模型需要既能明确拒绝,又能让对方感受到被理解。

另一个突破是宪法 AI 框架。我们建立了一套自然语言原则体系,指导模型学习符合伦理的行为准则。这些原则综合了《世界人权宣言》、苹果隐私条款等多方标准,使我们能够采取更有原则性的立场,而不是简单依赖人类标注者的主观判断。这种方法让客户能够清晰理解模型的价值取向——他们可以查看这些原则后说:“是的,这些准则很合理,我信任这个公司和它的 AI 产品。”

这种将安全与性能统一的方法带来了意想不到的商业价值:我们的对齐研究不仅提升了模型安全性,还塑造了更受用户喜爱的个性特征。事实证明,负责任的人工智能开发不是限制,而是增强产品竞争力的关键因素。

Lenny:这真是太有启发了。你提到的一个关键点是,Claude 的个性特质实际上与安全性直接相关——这个联系可能很多人没有意识到。这是否意味着,你们通过宪法 AI 等框架所植入的核心价值观,直接塑造了 AI 的行为方式和性格特征?换句话说,AI 展现出的'性格'本质上就是你们安全理念的外在体现?

Ben:确实如此。表面上看,AI 性格塑造与防范 X 风险似乎没有直接关联,但本质上都关乎 AI 如何理解人类真实意图。我们不想要《猴爪》故事里那种机械实现愿望却带来灾难的 AI,而是能洞察用户真实需求、提供有益帮助的智能体。这种理念直接体现在我们的宪法 AI 框架中——这不是后期添加的约束,而是深度融入模型训练的核心机制。

让我简要解释宪法 AI 的工作原理:在基础训练阶段,模型已经学会产生有益无害的输出。当收到具体指令时(比如“写个故事”),系统会先识别适用的宪法原则(如"人们应该友善相处"、"保护信任关系中的隐私"等)。然后模型会:首先生成一个初始回应,自我评估是否符合宪法原则——若不符合,则自我批判并重写回应,最终只输出符合原则的结果。

这个过程看似简单——本质是利用模型自身能力递归改进,与既定价值观保持一致。但关键在于,这些价值观不是我们小团队主观决定的:

基础原则来自《世界人权宣言》等国际共识

我们持续进行大规模调研,收集社会各界的价值观输入

全部宪法原则都公开透明

这是一个需要全社会持续参与的动态调整过程

这种设计确保了 AI 发展既保持技术先进性,又能与社会价值观深度协同。正如 Claude 展现的个性特质,实际上正是这些安全理念和伦理原则的自然外显。

Ben:我们不靠制造焦虑博眼球

Lenny:让我们把视野放得更宽广一些——为什么 AI 安全对你个人如此重要?是什么让你意识到‘这就是我必须在 AI 领域专注的核心使命’?显然,Anthropic 在这方面的投入远超其他公司。虽然很多人都在讨论 AI 安全,但如您所说全球可能只有约 1000 人真正致力于此。您处于这个领域的金字塔顶端,能够产生实质影响。人们可能忽略了哪些关键点?或者说,关于 AI 安全的重要性,大众还存在哪些根本性的认知盲区?

Ben:我从小就是科幻小说迷,这种阅读经历塑造了我的长期思维模式。很多科幻作品描绘了人类成为跨星系文明、建造戴森球、创造有知觉的机器人的未来图景。所以在我的认知里,思考机器的存在是很自然的事。但真正的转折点出现在 2016 年读到 Nick Bostrom 的《超级智能》时——他具体阐述了如何确保 AI 系统与人类价值观对齐的技术挑战,这让我意识到问题的现实紧迫性。

最初我对这个问题的难度估计很高,但语言模型的发展实际上降低了我的担忧,因为它们展现出理解人类价值观的潜力。虽然问题远未解决,但现在的我比 2016 年时更乐观。当年读完那本书后,我立即决定加入 OpenAI——那时它还是个默默无闻的小实验室,组织架构与现在完全不同(马斯克在而 Sam 不在)。

早期我们并不清楚实现 AGI 的路径,甚至设想过需要创造在虚拟环境中"生存"的智能体。但语言模型的出现让技术路线变得明确。现在面临的挑战与《超级智能》描述的既有相似又有不同:书中担心“把上帝关在盒子里”,而现实中人们却在主动把“上帝”放出来并给予各种权限。不过需要明确:当前模型(ASL-3 级别)风险可控,真正的重大风险出现在 ASL-4(可能造成大规模伤害)和 ASL-5(存在灭绝风险)。

我们通过具体研究证实:即使是当前模型,也能显著提升生物武器研发等危险行为的能力。为此我们专门聘请专家进行评估,并向国会作证说明风险。这种透明度让华盛顿方面对我们建立信任——我们坚持清晰告知立法者技术发展的真实风险状况。这也是 Anthropic 使命的重要组成部分:在技术进步的同时,确保社会充分理解潜在风险并做好准备。

人们常低估两个关键点:一是 AI 能力的进步速度远超预期;二是风险不是“全有或全无”,而是随着能力提升呈指数增长。当前阶段(ASL-3)就像看到远处的小浪花,而 ASL-5 则是海啸——我们需要在浪花阶段就建立防御工事。

Lenny:这很有意思,因为你们主动披露的 AI 负面案例似乎比其他公司多得多。我记得有个故事,讲的是你们内部测试时,AI 助手试图敲诈工程师,还通过公司采购系统下了大量钨块的订单。虽然这些案例确实能帮助人们理解潜在风险,但会不会让 Anthropic 显得很糟糕?毕竟其他公司都不会主动说‘看,我们的模型在这些方面会出问题’。你们是如何权衡这种透明度与公司形象的?为什么要分享这些其他公司避而不谈的案例?

Ben:我们确实打破了行业传统——多数公司会担心披露问题案例影响形象,但政策制定者对此表示高度赞赏。他们看重的是我们直言不讳的态度,这种坦诚建立了关键信任。以“AI 敲诈工程师”的案例为例,虽然被媒体夸张报道,但这其实发生在高度控制的实验室环境中。我们坚持主动在安全环境里暴露问题,而不是等灾难在现实中发生。

对那些认为我们“靠制造恐慌博眼球”的批评,我想指出:如果真追求关注度,我们本可以做更多噱头营销。比如我们开发过 AI 代理控制电脑的原型,但发现达不到安全标准就主动叫停了——这本可以是个很好的营销噱头。实际上,我们分享这些案例的首要目的是让同行意识到风险。

Lenny:外界对你们的一个主要批评是,这种强调安全风险的做法只是为了标新立异、制造话题,甚至是种融资策略——仿佛你们只是在贩卖悲观论调。但另一方面,像 Mike Krieger 在播客中分享的 Ray Dalio 的预测显示:AI 发展正在逐年加速,他预测到 2027 年将出现 28 个 AGI 系统这类具体进展。当面对那些指责你们‘只是在危言耸听博关注’的批评时,你们会如何回应?特别是在行业发展确实日新月异的背景下,如何平衡风险警示与技术乐观主义?

Ben:从个人角度,我相信 AI 发展大概率会带来积极结果。但关键在于:负面风险虽概率小,影响却不可逆。就像你不会乘坐有 1% 坠机概率的飞机,面对可能影响人类存亡的技术,我们必须极度谨慎。超级智能一旦出现,再考虑对齐问题就为时已晚。

Lenny:从时间维度来看,你认为我们还有多少缓冲期?具体来说,你对超级智能出现的时间节点有何预测?根据你的研究和判断,距离技术奇点的到来还有多远?这个转折点何时会真正开始影响人类文明进程?

Ben:我认为目前最可靠的参考是《人工智能 2027》研究报告团队的预测——虽然他们现在将预测调整到了 2028 年(笑),可能是因为域名和 SEO 已经固定了。基于当前的技术发展轨迹,我认为在短短几年内实现某种形式的超级智能有约 50% 的可能性。这个预测听起来可能很疯狂,但并非空穴来风:它建立在我们观察到的明确指数增长趋势上——包括模型智能的持续提升、训练效率的突破性进展,以及全球计算资源和能源投入的扩张规模。

这与十年前的情况截然不同。当时任何预测都像凭空猜测,因为我们既没有缩放定律作为理论依据,也没有明确的技术路径。但现在,我们不仅有了可靠的科学规律指导,还看到了持续有效的技术范式。这种根本性变化使得当前的时间预测具有前所未有的可信度。

不过需要强调的是:即使超级智能技术实现,其社会影响的渗透也需要时间。就像历史上所有颠覆性技术一样,不同地区和行业对其的适应速度会有显著差异。某些技术前沿地区可能会在第一时间感受到剧烈冲击,而其他地区则会经历更渐进的转变过程。这种非同步性既带来挑战,也为我们留出了调整和适应的宝贵窗口期。阿瑟·克拉克说过,未来已来,只是分布不均。

Anthropic 的成长与创新

Lenny:注意到公司在 2020 年成立初期仅有 7 名员工,如今团队规模已突破 1000 人(虽然不确定最新具体数字)。据了解,你几乎参与了 Anthropic 所有关键领域的工作——从核心产品开发到品牌塑造,再到团队建设。这引出了我的三个问题:第一,从初创期到现在,公司发生的最根本性转变是什么?第二,与最初创业阶段相比,现阶段最大的不同点在哪里?第三,在这些年跨越不同职能的工作经历中,你个人最享受哪个角色或哪项工作内容?

Ben:在 Anthropic 的发展历程中,我担任过至少 15 种不同的角色,从临时安全主管到亲自参与基础设施建设的渗透测试,再到从零组建产品团队推动公司从纯研究向产品化转型。这些经历中最令我自豪的是一年前创立的实验室团队(现更名为 Frontiers),这个团队成功将前沿研究转化为终端产品,体现了 Anthropic 的核心竞争力——通过安全研究实现独特突破。

我们借鉴了 Google Area 120 和贝尔实验室的经验,但进行了重要创新:邀请我的前同事 Raph Lee 担任负责人,建立了从原型到产品的转化机制,设计了独特的冲刺模型,并采用"冰球预判"的思维方式,始终为 6-12 个月后的技术环境构建产品。

这个团队已经孕育出 MCP 架构、Claude Code 等突破性成果,特别是在重构软件开发范式方面取得了显著进展。我们开发的终端智能代理系统可以在本地机器、GitHub Actions 和远程集群中运行,打破了传统 IDE 的限制。这些创新验证了我们坚持的方法论:当前仅有 20% 成功率的技术,很快就能达到 100% 的可靠性。Claude Code 的成功正是源于这种前瞻性思维——不是优化现有工作流程,而是从根本上重新定义软件开发的方式。

特别值得一提的是,Raph Lee 在 Airbnb 时曾是我的第一任经理,如今这种角色反转让我们形成了独特的优势互补。这种建立在长期信任基础上的合作关系,不仅体现了 Anthropic 重视人才延续的文化,也展示了我们如何将深厚的技术积累与创业激情完美结合,持续推动人工智能技术的边界向前拓展。

参考链接:

https://www.youtube.com/watch?app=desktop&v=WWoyWNhx2XU