潘朵拉盒子已打开!股神巴菲特再次示警:AI的危险不亚于核武器
6 小时前 / 阅读约2分钟
来源:集微网
巴菲特在专访中警告AI快速发展带来的不确定性,将其与核武器的诞生相提并论,强调技术进步与人类风险意识的脱节,呼吁全球关注AI伦理与风险管控。

「股神」巴菲特在周二(13 日) 播出的一段专访中再次对AI 发展提出警告,直言AI 快速发展带来的不确定性,令他想起职业生涯中始终关注的大型地缘政治问题,即核武器的诞生。他曾在前年举行的波克夏海瑟威( BRK.A-US ) 年度股东大会上表示,AI「既有巨大的潜力造福人类,也有巨大的潜力造成危害」。

这位现年95 岁的传奇投资者今年初正式卸任波克夏海瑟威执行长一职,交棒给阿贝尔(Greg Abel)。

巴菲特在节目中指出,当前AI 领域的领导者并不清楚这项技术的最终走向,这种未知性本身就是巨大风险。他以哥伦布航海比喻:「你可以说『我不知道会到哪里』,因为随时能掉头,但现在精灵已被放出瓶子,无法收回。」

股神还引用爱因斯坦针对原子弹「改变了世界的一切,唯独改变不了人类思维方式」的评论,强调技术进步与人类风险意识的脱节。

巴菲特更进一步指出,核子武器扩散的教训在AI 领域同样适用。二战时人们以为仅有一个国家拥有核武,如今却有八个,甚至可能增至九个。 「即便有人拿着玩具枪,也足以让人恐惧,更何况是核武?」

巴菲特表示,尽管核武威胁无法单纯用金钱解决,但若能消除此威胁,他愿意倾尽全部财富,即便二战期间美国研发核武是「绝对必要」的。

上述发言延续了巴菲特近年对AI 的态度,继2024 年5 月波克夏年度股东大会后,此次他更明确将AI 风险与核武并列,强调人类必须正视技术失控的可能性,并以慈善行动呼吁全球关注。

作为投资界标竿人物的巴菲特,他的再次示警有望引发市场对AI 伦理与风险管控的更深层讨论。