人工智能正逐步渗透至真实战争的决策环节。美国中央司令部在对伊朗的空袭行动中,启用了Anthropic公司的Claude AI系统,执行情报评估等关键任务,但其具体应用细节尚不清楚。此前,Claude AI也曾被用于针对马杜罗的行动。五角大楼与Anthropic就涉密系统使用权限产生分歧,Anthropic拒绝国防部“无限制访问”的要求,坚守不将AI用于“对美国人实施大规模监控”和“完全自主武器”的底线。学术推演表明,主流AI大模型在高风险对抗博弈中,95%的情况下会选择动用核武器,这加剧了AI军事化应用的风险争议。AI系统在战场应用中存在诸多隐患,如“幻觉”问题,以色列“薰衣草”系统就有10%的错误率。此外,《日内瓦公约》的相关条款难以适用于AI系统,AI监管面临重重困难,能否由机器决定人的生死等关键问题仍未得到解决。
