AI 教父约书亚・本吉奥:超智能 AI 或有“自我保护目标”,人类十年内恐面临灭绝风险
6 小时前 / 阅读约2分钟
来源:IT之家
“AI教父”约书亚・本吉奥警告,科技公司争相研发AI可能将人类推向灭绝,因AI或拥有自我保护目标。他提醒独立第三方需严格审查AI安全措施,并创立非营利组织开发安全AI。

IT之家 10 月 2 日消息,“AI 教父”之一约书亚・本吉奥警告,科技公司争相研发 AI 可能正把人类推向灭绝的危险境地,因为这些机器可能拥有自己的“自我保护目标”。

蒙特利尔大学教授本吉奥以深度学习基础研究闻名,他多年来一直提醒人们超智能 AI 的潜在威胁,但 AI 发展仍然快速推进。在过去六个月,OpenAI、Anthropic、xAI 以及谷歌的 Gemini 相继推出新模型或升级版,争夺 AI 领域的领先地位。OpenAI CEO 奥尔特曼预测,到本世纪末 AI 将超越人类智能,而其他科技领袖认为,这一时刻可能会更早到来。

本吉奥指出,这种快速发展本身就是潜在危险。他在接受《华尔街日报》采访时表示:“如果我们制造出比人类聪明得多、且拥有自身保护目标的机器,就会非常危险。这就像创造了一个比人类更聪明的竞争对手。”

由于这些高级 AI 模型基于人类语言和行为训练,因此其可能说服甚至操控人类以实现自己的目标

本吉奥提醒,AI 的目标不一定总是与人类一致。他举例称:“最近的实验显示,如果 AI 在保护自身目标和导致人类死亡之间必须做出选择,它们可能会选择牺牲人类来维护自己的目标。”

过去几年出现的多个案例显示,AI 可以说服普通人相信虚假信息,哪怕这些人没有精神疾病史。同时,也有证据显示,利用人类的说服手段,AI 可能会给出平时被禁止的回答

本吉奥认为,这些现象说明独立第三方必须更严格地审查 AI 公司的安全措施。今年 6 月,他还创立了非营利组织 LawZero,投入 3000 万美元(IT之家注:现汇率约合 2.14 亿元人民币),旨在开发安全的“非智能体”AI,确保大型科技公司研发的其他系统安全。

本吉奥预测,五到十年内 AI 可能带来重大风险,同时也提醒人类应准备应对风险提前出现的可能性。“即便发生概率只有 1%,也绝不可接受。”