诺奖得主Hassabis:5-10年AGI将至,冲击力将是工业革命10倍!
6 小时前 / 阅读约11分钟
来源:凤凰网
DeepMind CEO回顾AI进展,谈及AGI挑战、模型幻觉、世界模型等,认为AGI需50%规模化+50%创新,可能5-10年内实现,AI变革规模或超工业革命十倍。

新智元报道

编辑:元宇

【新智元导读】近日,在与数学家Hannah Fry的对话中,DeepMind CEO Demis Hassabis回顾了AI在过去一年的飞跃式进展,他谈到了「参差智能」、持续学习、模型幻觉等迈向AGI过程中的关键挑战,并提到AGI带来的社会冲击可能是工业革命的10倍。

「过去一年,我们像是经历了十年的发展。」

近期,在与数学家Hannah Fry的对话中,DeepMind CEO Demis Hassabis这样形容他对过去一年最大变化的感受。

DeepMind CEO Demis Hassabis(左)与数学家Hannah Fry(右)在播客中

在Hassabis看来,过去一年,AI领域取得了十分惊人的变化。

对于谷歌来说,发布了Gemini 3,在多模态能力取得了长足进步。

此外,世界模型的进展也让Hassabis非常兴奋,这是他一直以来最热衷的领域之一。

Hassabis谈到了在通往AGI过程中存在的一些瓶颈难题,比如「参差智能」的,持续学习能力的缺失等。

他认为迈向AGI需要「50%的规模化+50%的创新」。

距离AlphaFold 2面世已经5年,Hassabis谈到目前DeepMind团队正在探索材料科学、核聚变等其他的可能性。

「参差智能」的挑战

在对话中,Hassabis谈到了通过AGI过程中的一些挑战。

比如,「参差智能」(jagged intelligences)的挑战。

AI能在国际数学奥林匹克竞赛中摘金夺银,却会在高中数学题上犯一些非常低级的错误。

Hassabis认为,这正是我们迈向AGI的一个瓶颈问题:「一致性」或「参差智能」(jagged intelligences)。

在他看来,「参差智能」出现的原因有各种理论解释和不同的原因,具体到不同情况,可能在于图像被感知和Token化的方式。

比如,有时它甚至无法识别所有的字母。

所以当你让它数单词里的字母时,它有时会出错。这可能是因为它没有看到每一个独立的字母。

此外,Hassabis还提到在线学习和持续学习的能力是当今AI模型所缺失的,这同样也是迈向AGI所不可或缺的重要能力之一。

AGI需要50%的规模化加上50%的创新

AI的竞赛与加速发展模式,有时也会面临很多「规模化最终会撞墙」「数据会耗尽」的质疑。

Gemini 3发布后,在众多基准测试中遥遥领先,似乎打破了这一质疑。

对此,Hassabis坦言,可能会存在一些「收益递减」效应,但他们在这个过程中其实从未真正遇到过所谓的「墙」。

他特别纠正了一种公众误解,即将「收益递减」错误解读为「零收益」,非黑即白:

「在指数级增长与停滞不前两种极端之间存在着广阔的空间,而谷歌正处于这个中间地带。」

这也意味着不可能每次发布新版本,性能就在所有基准上翻倍。但Hassabis也强调自己并未看到任何放缓的迹象。

谈到「互联网数据是否快被用尽」这一问题,Hassabis认为这可以通过使用合成数据来解决。

「现在的系统已经足够强大,可以自己生成数据,尤其是在编码和数学这类可以验证答案的领域;从某种意义上说,你可以创造出无限的数据」。

Hassabis也表示这些领域目前仍是研究课题,而这一直以来也是谷歌的优势:

「我们始终坚持研究为先。谷歌一直拥有最广泛、最深厚的研究团队。如果回顾过去十年的重大进展,无论Transformer、AlphaGo、AlphaZero,都出自Google或DeepMind。」

当赛道变得越来越难时,Hassabis反而觉得更加兴奋。

他认为这不仅需要世界一流的工程能力,还必须将其与世界一流的科学研究相结合,而后者正是谷歌的专长。

此外,最重要的一点谷歌还拥有世界级基础设施的优势,包括TPU和其他硬件。

这些结合,使谷歌能够同时在创新前沿和规模化应用上保持领先。

「50%的精力用于规模化,50%用于创新,要最终实现通用人工智能,这两者缺一不可。」

模型幻觉

即使在Gemini 3这样的前沿模型上,仍然能看到「幻觉」现象。

Hannah问是否可以让Gemini像AlphaFold那样,为自己的答案给出一个置信度分数。

Hassabis认为这个功能很重要,也是目前所缺失的关键环节之一:

「我相信我们正在接近这个目标。模型越智能,它们就越『知道自己知道什么』」。

模型越可靠,我们就越能依赖它们某种形式的「内省」或者更深度的思考,从而让它们自己意识到对某个答案不确定。

Hassabis表示,接下来我们就需要研究如何通过训练,让它能够将这种「不确定性」作为一个合理的答案输出。

他将目前的模型比作一个「说话不过脑子的人」,大多数情况下可能没问题,但当遇到非常棘手的问题时,你希望它能停下来,审视一下自己要说的话,并作出调整。

因此,需要引入「思考」和「规划」的步骤,让模型能够回顾自己刚刚输出的内容。

世界模型

除了 AI,世界模型和模拟一直是Hassabis最热衷的领域。

他认为语言模型仍然缺乏对很多关于世界的空间动态、空间感知、物理接触,以及我们所处的物理环境如何运作的力学原理的理解,这些通常是很难用语言描述的,也不会出现在文本语料库中。

如果我们希望机器人能够真正工作,或者希望有一个能随时陪伴你的通用助手,无论是在你的眼镜上,还是手机上,在你的日常生活中提供帮助,你就需要这种对物理世界的深刻理解,而世界模型正是其核心。

Hassabis谈到圣塔菲研究所(Santa Fe Institute)所作的模拟社会动力学的实验,让智能体在设定了正确激励机制的环境中运行足够长的时间,它们可以「发明」出像市场、银行等种种有趣的东西。

他认为这些实验很酷,也能帮助我们理解生命的起源和意识的起源,而模拟,则是实现这一目标最强大的工具之一。

「你可以设置略微不同的初始条件,将模拟运行成千上万次,然后以一种高度受控的实验方式,去理解这些细微差别所带来的不同结果。」

Hassabis认为,精确的模拟将为科学带来不可估量的福祉。

避免「信息茧房」

Hassabis曾提到,构建AI不应以最大化用户参与度为目标,以免重蹈社交媒体的覆辙。

如何构建一个既能将用户置于其个人世界的中心,又不至于为他们创造出一个「单人回音室」的 AI?

Hassabis称目前已经看到了过度「谄媚」或迎合用户的AI所带来的后果,它们会形成「回音室」效应,对个人产生非常负面的影响。

Gemini正在通过发展出一套关于AI「人格」设定的科学方法来解决这一挑战。

Hassabis带领了一个团队来负责这项工作,希望塑造一种近乎「科学家」的个性:

它温暖、乐于助人,但同时又言简意赅、切中要点;它会以友好的方式,对那些不合逻辑的观点提出质疑,而不是盲目附和。

Hassabis认为为模型「人格」设定标准,是让大模型走向科学研究的一个重要关键。

模型会有一个出厂的「基本人格」,每个用户可以根据自己的偏好进行个性化设置,比如更幽默或更简洁。

但其核心的基础人格是不变的,它始终致力于遵循科学方法。

工业革命对AI变革的启示

Hassabis近期研究了很多关于工业革命的历史,他认为这有助于帮助我们应对即将到来的社会变革和冲击。

工业革命为人类带来了难以置信的进步,比如现代医学、物质富足、现代交通等。

同时也带来了巨大的挑战,不同时期,不同行业的劳动力都经历了被取代的阵痛,但没有人会想回到前工业时代。

而AI带来的变革的规模可能是工业革命的十倍,而其发生的速度也可能快十倍,或许将在十年内展开,而非一个世纪。

在Hassabis看来,通过学习那段历史,提前预见这次变革可能带来的社会错位,有助于我们更早、更有效地去缓解它们。

就像工业革命彻底改变了农业社会的工作模式一样,至少同等规模的变革将再次发生。

因此,Hassabis认为我们可能需要新的经济体系和模型来帮助社会转型。

图灵机的终极问题

Hannah Fry:超越通用人工智能,迈向人工超级智能(ASI)的阶段,您认为是否存在某些事情是人类能做到,而机器永远无法企及的?

Demis Hassabis:这正是那个终极问题,又回到了我最爱的话题之一图灵机。

Hassabis认为,如果成功构建了AGI,并用它来模拟人类心智,并将其与真实的心智进行对比,就能发现其中的差异,以及人类心智中那些独特且无法被取代的东西。

其中哪些是可计算的,哪些是不可计算的,目前存在着许多假说,但这最终都归结于图灵机的问题:

图灵机的能力极限究竟在哪里?

自从了解到图灵和图灵机以来,这个问题一直是Hassabis人生的核心问题,令他着迷,也是他的核心热情所在。

他所做的一切,都在某种程度上不断拓展着图灵机能力的边界,包括破解蛋白质折叠。

但他并不确定这个极限在哪里,这就又回到了心智的问题:它完全是经典计算吗?还是说有其他机制在起作用?

「如果现在非要我猜,我会赌是后者,并且我正基于这个假设在工作,直到物理学证明我错了。」

Hassabis十分推崇康德(Kant)的一个观点——现实是心智的建构。

「所有这些感觉,包括光、温暖、触感,它们通过我们的感官输入。归根结底它们都是信息。而我们,就是信息处理系统。」

Isomorphic Labs的创办正是基于这样一个理念。

他们将生物学视为一个信息处理系统,相信最终能治愈所有疾病。

当前AI都不具备意识,AGI可能需要5-10年

Hassabis从小便对生命的意义、意识的本质、以及现实本身到底是什么这类宏大的问题着迷。

一直指引他并让他始终保持热情的,是理解我们周围的世界。

对于他来说,AI就是一个推动人类知识进步,帮助他实现这一目标的终极工具。

2025年4月,Hassabis在接受CBS 《60 Minutes》节目采访时表示,当前的人工智能系统在任何真正意义上都不具备自我意识或意识。

当CBS 《60 Minutes》主持人Scott Pelley问他,「你们现在是否在研究一种可能具有自我意识的系统」时,Hassabis表示,在他看来,如今的系统都不具备自我意识,也谈不上真正的意识。

Scott Pelley又问他是否会将打造有自我意识的系统当作目标。

Hassabis回答,这并不是一个明确的目标,但它可能会以一种隐含的方式发生。

比如,这些系统有可能获得某种「自我意识的感觉」。

他表示让系统理解「自我」和「他者」是非常重要的,而这可能正是自我意识的起点。

但Hassabis也提到,即使机器真的获得了自我意识,人类未必能够识别出来。

Hassabis谈到了他对AGI的时间表,他认为可能在未来5到10年内实现。