AI会有情感吗?机器人会不会感知到疼痛?未来人类与AI的边界在哪里?我们梳理了"互联网女皇"玛丽·米克尔、"AI教父"杰弗里·辛顿、科技预言家凯文·凯利、DeepMind CEO德米斯·哈萨比斯的近期访谈,他们从诸多维度,各自表达他们心中的AI时代图景。
过去,AI像个“工具箱”,用完即走;如今,它正逐步成为一个“工作搭子”,全天在线、随时互动。
观察指标也在转变。从过去强调DAU(日活跃用户),我们正步入一个更强调DPU(日驻留时长)的时代。谁更能抓住用户的注意力,谁就更有机会赢得订阅关系。
AI产品开始从“尝鲜”进入“陪伴”,从“效率工具”演化为“生活接口”。
此外,AI正从数字世界扩展到物理世界,“物理智能体”正在加速崛起。例如,一些自动驾驶系统已投入商业运营,不再只是停留在测试阶段,而是与实时环境紧密结合。
与此同时,AI正在快速渗透到各个行业,包括AI工厂、AI机器人、工业AI、AI医疗设备与AI农业等部署,正在取代传统的人工流程。例如一些农业公司将AI应用于除草,通过计算机视觉实现无农药作业。
2025年是Agent元年,Agent正在成为新型数字劳动力。AI不再只是一个对话工具,而是真正能干活。
各行业(金融、医疗、制造、零售)正用AI重塑业务流,提升生产率与客户体验。图表显示,企业采用AI的目标正在发生演变:从最初提升整体办公效率出发,快速扩展至特定岗位自动化、客户互动优化、新营收机会探索等多个方向。
AI技术的发展速度超出了我的预期。以推理能力为例,现如今AI在这方面已经有了显著的进步,且似乎没有放缓的迹象。虽然人类和AI都会犯错,但AI犯错的概率正在迅速下降。
我们没有理由认为AI无法完成我们人类能做到的事情。也许它还需要一些时间,但最终,AI会变得越来越擅长这些任务。打个比方,如果你让我写一首模仿鲍勃·迪伦风格的歌,也许写得并不怎么样——但你不会因此说我毫无创造力,只能说我做得不够好而已。AI的创作过程也是如此。它会不断改进,它的水平会不断提升。
说到底,人类并没有什么神秘的、不可复制的特质。尤其从能力角度来看,人类并没有什么是机器永远无法复制的。
AI确实有可能拥有某些情感。我再次强调,我认为人类与AI在情感方面并没有本质区别。人类情感有两个方面:认知和生理。当我感到尴尬时,我的脸会变红,而当AI感到尴尬时,虽然它的“脸”不会变红,也不会大汗淋漓。但在认知行为方面,AI完全可以像我们一样表现出情感。
关于AI是否拥有感知能力,目前存在一个颇具争议的认知矛盾。许多人坚信AI绝对不具备感知,但当被问及“你如何定义感知”时,他们往往难以给出明确答案。实际上,机器与人类之间并没有想象中那样不可逾越的“神秘屏障”。人类没有特别的本质,机器能够复制我们的一切认知与行为。
关于人工智能,我想先强调复数形式的它,也就是AIs而非AI。很快我们就要面对各式各样的专用AI了,它们各司其职,并且需要差异化的管理模式和资金机制。
就好比我们谈论工业时代时,总要着眼于具体机器。万能通用的机器并不存在。从汽车到流水线再到家电,机器们各有所用。工业化的概念虽然广阔,但谈起它来时,肯定会就具体机器的具体功能和影响展开讨论。
从这一层面看,人工智能与机器无二。我们可以聊所谓的“AI化”(AI-ization)或“智能化”(cognification),但需了解,它绝不是统一、均质、单调的。
我认为去中心化的世界对机器人非常有利。在这样的世界里,机器人大量涌现,因为它们具备足够的适应性和智能,可以独立工作,而不必依附大公司。
另一个特点是,你可以拥有小数据的AI,不需要70亿参数的AI。大公司的数据垄断优势会被削弱,会有更多初创企业涌入赛道,会有更多普通人开发出有一技之长的小型AI。
从文化角度看,这也很棒,它更像互联网文化——无需许可,适合独立创业者。
而情感与感知,本质上也是一种信息处理与反馈机制,只要技术发展到一定阶段,AI完全有可能模拟甚至产生类似人类的情感与感受。但有情感的机器人在某些情况下非常有益。情感是人类最自然的交互方式之一,如果我们希望机器人与人类协作,赋予它们情感是一种聪明而高效的方式。
此外,还有疼痛。机器人和机器将会感知到疼痛,因为我们会通过编程赋予其痛感。疼痛非常实用,如果你的机器人有某处受损,疼痛信号可阻止它进一步伤害自己。这也是使人类演化出痛觉的驱动力。
AI全面赋能世界的进程将远比技术乐观主义者预测的更漫长。也就是说,AI的创新前沿将飞速进展,但其应用与渗透速度会落后很多。
社会消化这些变革所需的时间可能超出人们预期,部分原因是未来充满不确定性,也因为AI的影响力太大——我们必须对现有生活进行重组,才能最大化AI之于人类生活的效用。距离它永久性地融入人类文明,仍有相当长的路要走。
我想说的是,尖端的模型和实质性创新可以水到渠成,但围绕AI创新的具体落地工作,以及AI真正渗入我们生活的过程,是道阻且长的,我们需要对工作流程、协作方式等方方面面做出大量重构。
我毕生致力于研究AI和AGI的原因是,我相信如果做得好、负责任地做,它将是人类有史以来发明的最有益的技术。
我认为AI在未来十年及更长时间里可能实现的事情,包括治愈所有疾病,以及帮助寻找或开发新的能源。我相信我们今天社会面临的一些最大问题,比如气候变化或疾病,都将通过AI解决方案得到解决。展望未来10年,我设想一个乐观的未来,其特征是人类的最大繁荣,届时我们将星际旅行,AI将帮助实现所有的技术构想。
我最担心的两个问题是:一、如何让这些技术能够被善意的使用者获取,去做像治愈可怕疾病这样了不起的事情,同时限制那些潜在的不良行为者获取同样的技术;二、我们如何确保能够掌控这些系统,控制它们,并理解它们正在做什么?我们需要设置正确的护栏,这些护栏不会被具有极高能力且能自我改进的系统所规避或绕过。
如果你处理不好这些问题,那么这些系统就会被用于各种有害的用途。这就是为什么我一直倾向于围绕这个主题进行国际合作,因为这些系统,无论在哪里建造,无论如何建造,都会影响到每个人。它们可以在世界各地传播,几乎会影响到地球的每一个角落。因此,我们需要关于如何构建这些系统、赋予它们什么样的设计和目标、以及如何部署和使用的国际标准。
目前AI的风险是未知的。在这个争论的两边都有很多人。有些人会说这里没有风险,还有一些人认为我们注定会失败。我认为正确的答案介于两者之间,也就是说,这场辩论双方都有非常聪明的人。这告诉我的是,我们对它的了解还不足以真正量化风险。随着我们进一步开发这些系统,情况可能会变成,让这些系统与人类对齐或保持对它们的控制,比我们从这里假设的或预期的要容易得多。
到目前为止,很多事情都证明是这样。它们变得比人们想象的更容易,包括让它们对世界有用,比如在这些模型之上进行一些相对简单的RLHF(基于人类反馈的强化学习)微调后,它们突然变成了有用的聊天机器人。这很有趣。有一些证据表明,事情可能比一些最悲观的看法预期的要稍微容易一些。
但在我看来,仍然存在重大风险。我们必须仔细进行研究,以量化风险是什么,然后尽可能地提前预见并加以应对,而不是事后再处理。对于如此强大和具有变革性的技术,这可能极其危险。