专家:会聊天≠会思考,大语言模型造不出通用人工智能
8 小时前 / 阅读约5分钟
来源:IT之家
最新研究表明语言不等同于智能,AI行业将通用人工智能希望寄托于大语言模型架构,但大语言模型存在“天花板”,无法实现通用智能,创造力上限仅相当于普通人类水平。

IT之家 11 月 30 日消息,人类往往将语言能力与智能划等号,然而最新研究表明,语言并不等同于智能。认知共振(Cognitive Resonance)风险投资公司的创始人本杰明・莱利(Benjamin Riley)在为《The Verge》撰写的一篇评论文章中指出,这对人工智能行业而言是个坏消息,该行业正将其对“通用人工智能”(Artificial General Intelligence, AGI)的所有希望寄托于当前所采用的大语言模型(Large Language Models, LLMs)架构之上。

莱利写道:“问题在于,根据当前神经科学的理解,人类的思维在很大程度上独立于语言。我们没有理由相信,仅靠对语言进行越来越复杂的建模,就能创造出一种在智能上达到甚至超越人类水平的系统。我们确实用语言来思考,但这并不意味着语言就等同于思维。理解这一区别,是区分科学事实与 AI 狂热 CEO 们所鼓吹的科幻幻想的关键。”

所谓 AGI,是指一种在广泛任务中具备与人类相当甚至超越人类认知能力的全知型人工智能系统。在实践中,人们常将其设想为能够解决人类自身无法攻克的重大难题,从癌症治疗到气候变化。而通过宣称正在打造 AGI,AI 行业的领导者们便能为其巨额支出和灾难性的环境影响提供正当理由。

据IT之家了解,AI 资本支出之所以失控,部分原因在于业界对“规模扩展”(scaling)的执念:通过向模型注入更多数据,并配备数量不断增长的 GPU,AI 公司使其模型在解决问题和进行类人对话方面表现得愈发出色。

但莱利强调:“无论我们建造多少数据中心,大语言模型终究只是模仿语言交流功能的工具,而非真正具备独立、独特认知过程的思考与推理系统。”

如果语言对思考至关重要,那么剥夺语言就应该会剥夺我们的思考能力。但莱利指出,情况并非如此,他引用了去年发表在《自然》杂志上一篇评论文章中总结的数十年研究。

例如,功能性磁共振成像(fMRI)显示,人类大脑在执行不同认知任务时激活的是不同区域。我们在解数学题和处理语言问题时,并非调用同一组神经元。此外,对失语症患者的研究也表明,即便丧失语言能力,他们的思维能力基本未受影响,他们仍能解答数学题、遵循非语言指令,并理解他人情绪。

就连一些顶尖 AI 专家也对大语言模型持怀疑态度。最著名的当属图灵奖得主、被誉为现代 AI“教父”的杨立昆(Yann LeCun)。长期以来,杨立昆一直认为大语言模型永远无法实现通用智能,主张转而发展所谓的“世界模型”(world models),这种模型旨在通过对各种物理世界数据(而非仅仅是语言)进行训练来理解三维世界。

其他研究也进一步支持了大语言模型存在“天花板”的观点。近日发表于《创意行为杂志》(Journal of Creative Behavior)的一项新分析使用数学公式评估 AI“创造力”的上限,得出了令人沮丧的结论:由于大语言模型本质上是概率系统,它们最终会达到一个临界点,在此之后,无法再生成既新颖独特又非无意义的输出。因此,该研究断言,即便是最先进的 AI 系统,充其量也只能成为“称职的写手”,为你写出一封措辞得体但平庸的邮件。

南澳大利亚大学工程创新教授、该研究作者大卫・H・克罗普利(David H. Cropley)在一份声明中表示:“尽管 AI 有时能非常逼真地模仿创造性行为,但在当前设计原则下,其真实的创造能力上限仅相当于普通人类水平,永远无法达到专业人士或专家的标准。”

他补充道:“一位技艺娴熟的作家、艺术家或设计师偶尔能创作出真正原创且富有成效的作品。而大语言模型永远不会做到这一点。它产出的内容始终是平庸的。如果各行业过度依赖它,最终只会得到千篇一律、缺乏新意的作品。”

莱利总结道:“诚然,AI 系统或许能以有趣的方式重新组合和复用我们的知识。但仅此而已。它将永远被困在我们编码进数据并用于训练它的词汇体系之中,一台只会重复陈词滥调的‘死喻机器’。”