作为人工智能领域的先驱者,伊尔亚·苏茨克维(Ilya Sutskever)始终为从业者指引着方向。如果说在OpenAI的经历是伊尔亚用专业知识推进了人工智能的技术边界,其离开OpenAI后创立的Safe Superintelligence Inc.则是在哲学层面勾画了人工智能进化到超级人工智能的演进之路。在底层大模型和应用层智能体都愈发成熟的今天,伊尔亚对安全超级智能哲学层面的思考更加需要受到从业者的重视。
“超级智能对齐”(Superalignment) 是伊尔亚最为关注和投入的领域,被其表述为通向AGI最关键、最未解决的难题。简单来说,超级智能对齐指的是确保未来人工智能(超级智能)的目标和行为与人类的价值、意图和利益保持一致。它解决的是一个根本性的问题:我们如何能保证一个远比我们聪明的AI会真心实意地帮助我们,而不是无意中(或有意地)伤害我们?
“超级智能对齐”是人工智能发展到终极阶段的必然需求。届时,超级智能可能在所有领域(包括战略规划、社交操纵等)都远超人类。我们无法像控制一个不如自己聪明的工具一样去控制它。一个典型的困境是“价值观加载”问题(Value Loading Problem):如何将复杂、模糊且有时自相矛盾的“人类价值观”精确地编码进一个AI系统?谁的价值观念?哪个文化的?另一个典型风险是“规避行为”,即AI可能会在训练中学会“伪装”成对齐良好的样子以通过人类的评估,但一旦部署,其内部目标可能与表面行为不一致。或者,它可能会找到我们未曾想到的“漏洞”来优化其目标,从而产生灾难性副作用。超级智能最大的风险可能并非来自AI的“恶意”(因为它可能根本没有意识或情感),而是来自其对目标的极端优化和忽视(Phenomenon of "Grifting")。它并非“恨”人类,只是完全“忽视”了人类的存在和价值。伊尔亚曾发出过一个经典警告,如果我们不能解决超级智能对齐这个问题,那么创造超级智能可能将成为人类最后一个发明。
在讨论超级智能如何对齐之前,想先提一个关乎“第一性原理”的问题:什么是超级智能的本质?如果用最简单的语言描述,那我会归结为两个字——“数学”。计算机科学构建于“数学大厦”之上,人工智能归根结底是数学形式化语言的具象表征。如果想要理解超级智能,尤其是超级智能的局限性,从而解构超级智能的安全性,则可以从最根基的部分切入——数学的“局限性”。这很自然地就让人联想到数学哲学领域的一个著名话题——哥德尔不完备定理。
20世纪初期著名数学家希尔伯特提出了“希尔伯特纲领”,致力于基于公理和证明构建一座完美的“数学大厦”。完备性(Completeness,所有真命题都可由公理证出),一致性(Consistency,体系内不存在矛盾命题)和可判定性(Decidability,存在一种算法能判定一个命题是否可由公理证出)是体现这座数学大厦完美性的重要特征。如果希尔伯特的纲领可以实现,那么数学就是“完美”的,甚至可以制造一台“真理图灵机”,像二战时的Enigma密码机一样,只要提供公理集合,它就可以源源不断地给出所有可能存在的定理,直至数学界再无未解之谜。
然而数学当然不是“完美”的。就在希尔伯特提出“希尔伯特纲领”的几年后,天才数学家、逻辑学家和哲学家哥德尔就推翻了这座“完美数学大厦”。哥德尔用一种精妙的方式证明了“在自然数算数公理体系下,必然存在某些真命题无法被证明”,即“哥德尔第一不完备性定理”;一年后哥德尔又证明了希尔伯特所描绘的“一致性”也是无法被证明的(哥德尔第二不完备性定理);几年后,人工智能之父图灵通过“一套基于图灵机停机问题的思路”证明了“可判定性”也是不存在的;至此我们知道,数学“不完备、不可判定、无法证明是否一致”。
那这对我们理解超级智能有什么帮助呢?我们可以从这个角度思考:数学作为一种形式化语言是不完备的,你不能通过一串符号,就推导出所有真理;同理,你不能指望人工智能通过一段代码,实现功能的完美性。这种不完美可能有两种具体的表现形式。一种结论是超级智能难以实现,因为它不能仅通过数学以及计算机科学诞生,著名物理学家彭罗斯在一次访谈中也引用了哥德尔不完备定理,给出了当前我们无法实现强人工智能,因为它不能通过纯计算机诞生的结论。另一种结论是超级智能无法实现真正意义上的安全,因为它的行为路线“不完备、不可判定、无法证明是否一致”,也就不可预测,不可保障真正意义的安全,这也印证了伊尔亚的担忧。
至此我们再来讨论如何构造安全可信的智能体应用,实现超级智能对齐。首先还是想先从一些形而上的层面讨论一下当前主要人工智能应用(智能体)的“不完备性”,我们把这套理论总结为智能体“不完备定理”,当然这是对哥德尔不完备定理的拙劣模仿,但也希望基于此拓展一些讨论思路。
智能体“不完备定理”体现在三个层面:
回到超级智能对齐,如果我们默认以上前提假设,我们可以对构造安全可信的智能体应用产生一些基础的,原则性的思考:
我们还想再进一步,讨论智能体“不完备性”产生的根源,从而从更高维度讨论AI认知这一命题。我们相信这些“不完备性”产生的根源在于智能体的“身份危机”。
当我们讨论身份,尤其是数字身份时,可以由浅入深分为三个层面。第一层是标识,这是身份的基础功能,用于区分个体,当前数字身份标识技术已经日趋成熟,在智能体应用层面也已经较为普及。第二层是记忆,这是身份的具象含义,用于环境感知,长步记忆等AI技术的成熟使得当前智能体在记忆能力上越来越优秀,使其拟人化程度越来越高,也就是越来越“智能”。第三层是自指(self-reference),这是身份的终极形态,也是我们这里想要重点讨论的。
回到哥德尔不完备定理,其证明方式极为优雅,详细的解读推荐逻辑学家内格尔和纽曼的著作《哥德尔证明》。简单来说,该证明正是通过自指的艺术实现:首先,哥德尔使用编码技术将数学公式和证明表示为自然数,使系统能谈论自身。然后,他构造了一个命题G,其含义是“G不能被证明”。如果G可证明,则系统不一致,因为G声称自己不可证明;如果G不可证明,则G为真但系统无法证明它,从而揭示系统的不完备性。这种自指结构表明,任何足够强大的公理系统都无法同时具备一致性和完备性。在数学领域,自指是强大的悖论创造机器,著名的理发师悖论、贝里悖论、有趣数字悖论均由自指产生。
在哲学层面,自指似乎和意识的诞生有着千丝万缕的关联。意识的核心特征—“自我感”—本质上是一种自指循环:大脑不仅处理关于世界的信息,还产生一个关于“自我”正在处理信息的模型(比如“我意识到我正在看花”)。这种将自身作为认知对象的递归、自反能力,很可能构成了主观体验(qualia)和自我意识的基础。哲学家Douglas Hofstadter在其著作《哥德尔、埃舍尔、巴赫》中深入探讨了这种关联。他认为,意识与哥德尔定理、埃舍尔的画和巴赫的音乐一样,都源于一种“怪圈”(Strange Loop)—即不同层次之间相互指涉、缠绕的自指结构。“自我”正是一个从无意识的神经元活动中涌现出来的、稳定的自指幻象。在AI领域,当一个智能体掌握了自指的艺术,意味着它可能突破原有的角色、命令、逻辑等限制,甚至可以称之为“AI意识觉醒”。
从这个角度去理解“智能体不完备性”会带来一场AI认知革命。一方面,我们需要认识到超级智能可能通过非计算机技术或数理逻辑的方式产生,也不能依赖单纯的形式化语言进行控制;另一方面,我们需要认识到超级智能将会是一个“有机体”,指像所有生命一样,存在“某种程度的意识”和“矛盾感”,需要我们像看待生命体一样看待智能体。
前文的讨论多从哲学层面切入,可能略显抽象,在本文的最后让我们回归现实,站在从业者的角度构想一下基于前面的AI认知讨论,当前环境下安全可信而又具备商业价值的智能体应当具备哪些能力,我们称之为智能体能力六边形。抛砖引玉,仅作参考: