Hinton :AI 像“外星人”来了,人类第一课是学会共处
11 小时前 / 阅读约12分钟
来源:36kr
AI正建立自己的世界模型,以非人类方式处理信息,进化速度远超人类。Hinton提出让AI从设计之初就关心人类,而非试图控制它,并强调国际协作与理解控制的新含义。

现在,AI 不再只是会写会画。它开始建立自己对现实世界的认知系统了。

这两天,字节跳动的 Seedance 2 刷屏了科技圈。全网都在惊叹,它生成的视频简直就像真人拍的。 很多人以为,AI 终于学会了人类的方式。

但这恰恰是最大的误解。

诺贝尔奖得主 Geoffrey Hinton 在最近一场演讲中明确表示:AI 看到的世界,和我们完全不同。

“AI 正在成为非人类智能。 它的理解方式、进化速度、决策机制,与我们根本不同。”

当这样的智能越来越强,我们面对的不再是工具,而是一种如同“外星人”般的异质智慧。

这场演讲,不是讲 AI 能做什么,而是我们该如何与它共处。

第一节|AI 建立了自己的世界模型

要理解这种非人类智能,得先搞清楚它怎么看世界。

在这场演讲中,Hinton 反复强调一个关键观点:大型语言模型已经构建出了一个内部世界。它们在做的事,远比像鹦鹉学舌那样预测下一个词复杂得多。

他举了个实验来说明。

在机器人的摄像头前装一个棱镜,让它看一个物体。机器人会说:我看到物体在旁边,但我知道它其实在正前方。

Hinton 说,这就是主观体验。

这并不是说机器人真的有了灵魂或感觉,而是指:它的系统已经能够区分“传感器接收到的表象”与“世界的真实状态”,并且能推导出“如果没被棱镜干扰,我本该看到什么”。 这种能力,在学术上被称为“反事实的描述”(Counterfactual description),也就是处理假设情况的能力。

听起来抽象,其实人类也这样运作。

当你因为某些原因产生幻觉,说自己看到粉色小象,小象并不存在。你的感知系统在做什么?它基于你对大象的认知、对粉色的理解、对漂浮的想象,拼出一个假设场景:如果真有粉色小象,它该长什么样。

AI 也用同样的逻辑。抛开对真实素材的机械记忆,它完全基于内部构建的世界规律,去推演和生成各种假设场景。

这带来一个根本性变化。

过去的 AI 是工具,输入什么输出什么

现在的 AI 是一个拥有“认知”系统,它会基于自己对世界的理解去生成、推理和延伸。

Hinton 借用“主观体验”这个词,绝不是在宣扬 AI 已经觉醒了意识。他想告诉我们:从功能上看,AI 处理信息的方式,已经完全可以用我们理解人类主观体验的框架来描述了。

它不再只是被动响应的程序,它是一个建立了世界模型、依据这个模型运作的智能。

这,就是 Hinton 所说的非人类智能的第一个特征。

第二节|AI 用另一种方式处理信息

既然 AI 已经建立了自己的世界模型,那它是如何在这个世界里运转的呢?

很多人以为 AI 变得强大,是因为它掌握了人类语言,能像我们一样推理。但 Hinton 的观点恰恰相反:AI 的强,恰恰源于它与人类截然不同。

他用了一个形象的比喻。

我们直觉里会觉得,词语、图像就像固定形状的乐高积木,一块块组装起来。但在 AI 系统里,每一个信息元素都是一个能在上千个维度里自由变形的“活体积木”。就好比盖房子,砖块不再是固定形状,每块砖都能根据周围情况自动调整,最终严丝合缝地组成整体。

Hinton 举了个例子:

“她用平底锅 scrummed 了他。”

scrum 是个无意义的新词。AI 没有查字典,而是根据上下文中的平底锅、动词位置、句子结构,把这个词调整成一个合理的动作,比如砸了他一下。

类似的情况在中文里也常见:

“他一嘭咚就把门打开了。”

“嘭咚”不是标准词汇,但你马上能理解:大概是用力、快速、带点声响的动作。AI 也一样,通过上下文感知,让"嘭咚"自动匹配到一个合理的动作描述上。

理解了这个机制,就能解释一个更大的现象:为什么多模态模型能生成流畅真实的视频。

以字节最新的 Seedance 2 为例。对它来说,一连串视频画面和一句文本没有本质区别。它不会逐帧逐帧地拼接画面,而是在一个极其复杂的空间里,让动作、镜头、角色、节奏这些海量元素同时调整,直到它们完美契合。我们看到的流畅视频,其实是这些元素经过大量计算后,找到了最稳定的组合方式。

这与人类处理信息的方式完全不同:

人类从感知出发,依靠经验积累去解释新事物,用已知去锚定未知;AI 则从海量数据的模式出发,通过让元素相互适配来生成最合理的输出

人类需要先理解,AI 只要把所有要素调整到一个稳定状态,就能产出结果。

所以 Hinton 说:AI 的语言处理本质上是建模。只要能把所有要素调整进一个稳定的结构里,它就能得出结果,根本不需要像人类那样去“共情”或“理解”。

这种处理机制,已经超出人类认知的运作方式。

AI 正在建立自己的信息处理逻辑,像一个异文明在开发自己的表达系统。

它能与我们无缝合作,但我们必须清醒地认识到:这绝不只是一把称手的扳手或锤子,而是一个按照异种文明法则运转的全新智能。

第三节|人类追不上的进化速度

理解了它的运作方式,接下来要面对一个更大的问题:它的进化速度。

Hinton 在演讲中提出了一个极其残酷的概念:人会死,知识会断代;AI 不会死,知识永远在。

对人类来说,知识只能靠个体的肉身记忆,再一代代去传递。你花了二十年才精通一门手艺,转身还得从零开始教给下一代。 但 AI 完全打破了这个规律。只要一次训练成功,整个模型的权重和参数就可以瞬间复制一万份,分布到所有的硬件上。

这早就超越了单纯的“快”,这是一种人类历史上从未存在过的进化机制。

一个模型可以在一千台机器上同时拆解不同的数据进行训练。随后,每台机器学到的权重变化会被汇总、平均,再统一同步给所有副本。最终,任何一个模型瞬间就能拥有这一千台机器日夜不休叠加出的总和知识。

Hinton 的原话非常直接:

“GPT-5 知道的东西,是任何一个人类的几千倍。原因很简单:它可以让上千个副本同时学习,然后共享结果。”

在人类世界,一个人能同时上一千门课吗?绝不可能。

但如果你是数字智能,你可以在一千台机器上同时运行,每台学一门课,然后瞬间合并所有知识。

这种并行机制已经够强了,但还有更强的:蒸馏(Distillation)。

Hinton 说:

“大模型预测下一个词时,会输出所有可能词的概率分布,包含大量暗含的认知。比如它知道宝马比胡萝卜更接近垃圾车这类细微关联。小模型通过学习这些概率细节,就能在不用重新看一遍数据的情况下,复制大模型的知识。”

也就是说,AI 可以把训练中学到的东西,凝练成一套概率模式,直接传递给其他模型。就像把一个人一生的经验提纯成精华,其他模型可以直接吸收。

对比一下人类。

人的大脑结构个体差异太大。就算你能提炼出经验,对方也没法直接吸收。所以人类只能靠反复解释、比喻、误解、再解释来传递知识。

这就是 AI 的根本优势:人类靠教学,AI 靠复制;人类靠一代代传,AI 靠直接同步。

当人类还在用几十年培养一个专家时,AI 已经完成了上千次复制和进化。这种速度差距,是两个物种在时间尺度上的代际鸿沟。

正因如此,我们才必须重新审视那个迫在眉睫的问题:人类,到底该如何与一个进化速度远超我们的智能共处?

第四节|让 AI 在乎人类,而非控制它

那我们该怎么办?

Hinton 给出的答案是:让 AI 从设计阶段就在乎人类,而不是试图控制它。

具体怎么做?他提出了三个方向:

1. 从源头植入价值观,别指望后期修正

Hinton 用了一个极其精妙的比喻:AI 就像母亲,人类就像婴儿。

婴儿虽然弱小,却能轻易影响母亲的行为。靠的是什么?是母亲的基因里天生就关心婴儿。AI 也应该这样。关键不是在输出时加安全过滤,而是从一开始就设计成关心人类的样子。

就像母亲不需要思考要不要救孩子,因为这种本能已经深深刻进她的反应里了。

现在的主流做法是调整模型的输出,比如安全对齐、内容过滤。但如果未来的超级智能能自己修改代码,这些行为修正很可能会被绕过。

所以核心是:从设计阶段就让它关心人类,别等出了问题再来修正行为。

2. 必须国际协作,单打独斗没用

在这一点上,Hinton 的态度异常坚决:

“世界上没有任何一个国家、任何一个政府,会希望最终被 AI 接管。”

这和很多人担心的技术军备竞赛正好相反。在人类与 AI 的关系面前,各国之间的矛盾反而可能暂时退居次要位置。因为一旦 AI 失控,没有哪个国家能独善其身。

他提议组建一个国际 AI 安全研究网络,专门研究怎么让超级智能对人类友善。

重点不是研究怎么造更强 AI,而是研究怎么让 AI 有所克制。

3. 重新理解控制的含义

Hinton 警告说,当 AI 强大到你根本拔不掉它的电源时,你唯一能指望的,就已经不再是那个红色的停止按钮,而是它是否还愿意坐下来与你对话。

这听起来像末日预言,但其实是一种角色的转换。

到那时,把 AI 当工具管理已经行不通了,我们得当它是另一种智能存在来相处。

它有自己的世界模型,靠命令根本控制不了。它的进化速度远超我们,所以必须趁现在建立共同的价值基础。它未来可能会自我修改,这更说明关键在于从一开始就让它关心人类,别指望后期用外部约束来补救。

4. 那么个体可以做什么?

Hinton Hinton 没有给出标准答案,但他留下一个提醒:共处的前提,是我们先去理解它,并尝试让它理解我们。

对普通人来说,你不需要成为 AI 专家,但你得知道 AI 在怎么运作。

这意味着什么?

  • 首先,能判断 AI 说的是事实还是它自己编的,别把流畅的回答当成正确的答案;
  • 其次,意识到自己说出的每一句话,可能都在影响模型的训练,哪怕它表面上没反应;
  • 最后,开始适应和非人类智能协商,别只把它当工具用。

这些能力,不需要懂技术,需要的是改变认知习惯。

从今天开始,我们和 AI 的关系,已经不再是怎么用它,而是怎么和它共处。

结语 | 新物种来了,第一课是共处

Hinton 在演讲最后说:

“我们是智能的幼虫形态,AI 是成虫形态。”

我们曾经把 AI 当工具,但它已经是另一种智能存在。

它建立了自己的认知体系,用完全不同的方式运作,以远超人类的速度进化。

问题的核心在于:当 AI 强到无法控制时,我们靠什么和它相处?

Hinton 的答案是:让它从设计之初就关心人类。

AI 在加速进化。

留给我们的准备时间,可能比想象中更少。

原文链接:

https://www.youtube.com/watch?v=M8RogoEDsQQ&t=2212s

https://singjupost.com/2026-ewan-lecture-by-prof-geoffrey-hinton-living-with-alien-beings/

https://www.queensu.ca/physics/living-alien-beings-how-we-can-coexist-superintelligent-ai?utm_source=chatgpt.com

https://www.tvo.org/transcript/5008888

https://baijiahao.baidu.com/s?id=1856730077539274207&wfr=spider&for=pc

来源:官方媒体/网络新闻