第一次,战争的底牌攥在AI手里
9 小时前 / 阅读约12分钟
来源:36kr
2026年美以联军对伊朗发动AI主导的精确打击,AI系统完成情报评估、目标识别与作战模拟。战争变成算力消耗战,AI自主决策引发责任归属和人类决策权危机,算力霸权形成智能军备竞赛的马太效应。

刚刚过去的五天之内,发生了四件事: 

2月27日,特朗普签署行政令,要求所有联邦机构六个月内停用Anthropic Claude,理由是国家安全风险。 

2月28日凌晨,美以联军对伊朗发动精确打击。德黑兰的夜空被火光点亮,伊朗总统府、最高领袖官邸附近区域、情报与国家安全部等目标相继被摧毁。 

3月1日,《华尔街日报》披露了一个更隐秘的事实,那款刚刚被特朗普“封杀”的Claude,早已深度接入美军机密网络,且无法被替代。军用定制版领先公众版一到两代,在此次行动中完成了情报评估、目标识别与作战场景模拟,Claude没有扣动扳机,但它规划了扣扳机的位置、时间和方式。 

3月3日,位于阿联酋的AWS数据中心遭导弹袭击,电力中断,火光窜起。Claude的部分服务随之大面积中断。那个刚刚“参与”了战争的大脑,还没来得及喘气,就被战争的另一面击中了。 

这不是新闻事故的巧合,这是一场关于“谁控制AI,谁就控制战争”的权力游戏的第一次公开演出。

在这场战争里,国界的概念模糊了,就连“谁在打仗”这个问题本身,都变得无法回答。扣动扳机的有可能不再是人类,而是那个每秒进行数万亿次推理的“战区Agent”。 

2026年2月28日,人类战争史翻过了关键一页。我们见证的不是一场中东冲突,而是第一场关键环节被AI决定的战争。

1、战争不再等人类想明白

要理解这场战争为什么可怕,得先聊聊老派的打法。 

过去一百多年,战争中信奉的圣 经叫“OODA环”:观察、调整、决策、行动。

以前打仗,拼的是谁的环转得快。侦察机拍到照片,送回总部,分析员看上半小时,讨论十分钟,最后飞行员飞过去扔炸弹。这个过程,快则十几分钟,慢则几天。 

但在2026年2月28日的这次打击中,这个环消失了。取而代之的,是美国军方所说的“端到端推理”。 

根据多家外媒的报道,美军部署的最新一代AI系统,已经不再是一个辅助软件,而是一个拥有极高自主权的“战场大脑”。数千个卫星传感器、截获的加密电信号、甚至是开源情报数据,像洪水一样涌入模型。 

模型不是在处理这些数据,而是在进行补全,在它看来,摧毁对方的防空雷达,并不是一个军事命令,而是它在解决了如何以最小成本达成目标这个概率问题后,给出的一个必然的Token输出。 

这不只是快的问题,是质变。

更早的数据已经预示了这个方向。 

2024年,美国陆军的“Scarlet Dragon”系列演习中,Maven智能系统就已经能做到,用20人的团队,完成2003年伊拉克战争时需要2000人才能完成的目标识别任务。目标识别和打击的时间,从最初的12小时以上,压缩到了1分钟以内。 

当时的目标是每小时处理1000个目标。而到了2026年2月,这套系统已经不再只是识别目标,而是生成决策。 

在Agent战争的逻辑里,人类还没反应过来,胜负已分。 

2、硬件不值钱了,值钱的是那个大脑

这次打击中,最让军事专家感到背脊发凉的,是导弹地位的下降。 

过去,我们衡量一个国家的军事实力,看的是你有多少枚战斧巡航导弹,有多少架F-35。但2月28日之后,这个标准需要重写了。 

在Agent战争时代,硬件已经彻底插件化。

怎么理解? 

你可以把现在的高精尖武器想象成一个U盘。U盘里装什么药、往哪儿飞,它自己说了不算,甚至连制造它的工厂也说了不算。它唯一的价值,就是能不能无缝接入那个统领全局的“战区Agent”。 

根据外媒报道,在针对伊朗的这次行动中,美以联军对伊朗防空系统进行了一场大规模的攻击。 

伊朗的防空系统虽然也升级了AI识别逻辑,但这恰恰成了它的阿喀琉斯之踵。美军的Agent通过分析对方算法的识别指纹,生成了数万个“逻辑完美”的虚假目标。 

这些目标在对方雷达眼中,看起来完全符合真实战机的飞行物理特征。 

这就像是在给对方的AI脑子里疯狂灌输“幻觉”。伊朗的防御系统在几秒钟内陷入了无限递归的计算,它无法分清到底哪个是真、哪个是假。 

最终,系统因为计算资源耗尽而直接宕机。

还有一个场景,在针对伊朗核设施的精确打击中,以色列国防军使用了一批看似过时的自杀式无人机。但诡异的是,这些无人机在空中展现出了极高的智慧。它们会自动分配任务,有的负责诱敌,有的负责中继通讯,有的负责俯冲。 

这背后的逻辑是,AI Agent正在实时重写这些机器人的底层代码。 

实际上,只要算力足够强大,哪怕是一架廉价的民用无人机,也能在Agent的调度下,打出顶级隐身机的战略效果。 

谁更有价值?显然是那个大脑。 

这也解释了为什么现在全球最紧缺的战略资源不再是石油,而是那几家芯片巨头生产的、能够支撑前线实时推理的高端计算卡。 

3、让它想,想到死机为止

如果我们把视角拉得更近一点,看看德黑兰的防御系统是怎么瘫痪的,你会发现更离奇的事。 

传统的电子干扰是靠功率压制,就像是大声喊叫让对方听不清。但这次,美军玩的是逻辑过载,外媒将这种攻击称为物理层提示词注入。 

因为整个过程和黑客攻击大模型的原理一模一样,通过精心构造的输入,让对方的AI系统产生幻觉、陷入死循环、最终崩溃。

区别只在于,这次攻击的不是一个聊天机器人,而是一个国家的防空系统。 

根据网络安全领域的研究,这种攻击的逻辑比传统电子战恐怖得多。以往你要瘫痪一个雷达站,可能需要发射反辐射导弹,或者用强电磁信号烧毁它的电子元件。 

现在呢?你只需要让它想太多,想到宕机为止。

Agent攻击的一个关键特征是无需人工干预。传统的网络攻击需要黑客坐在电脑前,一条指令一条指令地敲。但Agent攻击不同,AI系统可以自主完成从信息收集到漏洞利用的全过程。它能分析网络拓扑,理解业务流程,自主决定如何向核心资产移动。 

它不需要人类刻意去控制,因为它自己会思考。

更可怕的是速度。传统攻击中,从漏洞公布到被武器化利用,中间有一段缓冲期让人去修补。但Agent攻击把这个窗口压缩到了15分钟甚至更短,AI能读取漏洞公告,自己写代码,自己验证漏洞,比任何人类团队都快。 

在伊朗的案例中,美军的Agent可能做了什么? 

它可能分析出对方防空系统的算法弱点,生成了数万个足以让系统崩溃的目标,这些目标在对方的AI脑子里勾勒出了一个荒诞的景象。雷达显示屏上瞬间出现了数万架战机,每架战机的飞行特征、尾焰红外信号、甚至是雷达散射截面都完美无缺。 

这些目标在物理世界不存在,但在数据世界里,它们比真的还真。 

对方的防御系统,要在非常短的情况下,去锁定、去跟踪、去计算这数万个虚假目标的弹道,结果导致计算资源瞬间被无限循环的逻辑陷阱吞噬。 

这不再是单纯的信号干扰,而是一场算法层面的深度催眠。

正如《连线》杂志所评论的:在算法面前,传统的钢铁洪流变得像透明人一样脆弱。你以为你在防御,其实你只是在对方的提示词里打转。 

4、当人类只剩下一个"同意"按钮

然而,这种高效背后,藏着一个更深层的隐忧。那就是决策的非黑即白。 

在本次行动中,美军始终强调人类掌握最终开火权。但问题是,当AI在几分钟内完成了态势感知、目标识别、路径规划、效果评估,人类指挥官手里那个开火权,还剩多少实际意义? 

此时的人类,已经从指挥官退化成了一键确认的审批员。 

更关键的是责任归属。 

中国军网的一篇分析文章提出了一个深刻的问题。当智能系统的决策逻辑呈现“黑箱化”特征,人类无法解释其工作原理,一旦发生误击事故,责任是开发者的、操作者的、还是算法本身的? 

这不是一个简单的哲学讨论。

在这次行动中,AI同步驱动了全频段电子压制与网络渗透攻击,瘫痪了伊朗边境雷达与通信系统。整个过程由算法自动完成,人类只是在事后被告知结果。 

我们正在把人类文明最后的底线,关于剥夺生命的最终决定权,交给一个连我们自己都解释不清楚的统计模型。 

5、算力不够,连挨打的资格都没有

这场战争也彻底改变了全球政治的规则。 

以前我们谈论地缘政治,看的是地理位置,是海峡,是矿产。但在2026年,出现了一个新的词:主权推理权。

为什么美以能在这场对抗中维持压倒性的优势?不仅仅是因为武器先进,更因为他们的国防AI直接跑在全球最先进的超大规模集群上。 

战争已经变成了一场赤裸裸的算力消耗战。

你每发出一枚干扰信号,每进行一次轨迹预测,都在消耗昂贵的算力。这意味着,贫穷的国家将彻底失去战争的参与权。如果你没有吉瓦级的能源供应,没有最顶尖的推理卡阵列,你在算法战争面前,连成为对手的资格都没有。 

更值得警惕的是,这种算力霸权正在向私人巨头集中。 

当SpaceX与xAI合并、试图构建天基算力主权时,国际电信联盟等组织的监管真空被加速暴露。基础设施权力以前所未有的速度向私人公司转移,将大国科技乃至军事竞争提升到了新的维度。 

战争的门槛,已经被推到了一个主权国家难以负担的高度。

2026年2月28日的这次打击,本质上是高维文明对低维文明的一次降维清场。 

更可怕的是,这种算力垄断正在形成智能军备竞赛的马太效应。 

拥有先进AI的国家,可以用更低的成本完成更高效的作战,而落后的国家,即使倾全国之力购买硬件,也只能在算法层面被降维打击。 

差距不是在缩小,而是在指数级扩大。

未来的战争,可能不再需要宣战。当一个国家的金融系统、能源网络、通信基础设施都运行在AI调度之上,对方只需要一次精准的算法计算,就能让整个国家在几分钟内陷入瘫痪。 

而你甚至不知道是谁动的手。 

6、今天调度导弹,明天调度你的工作

很多可能会觉得,德黑兰的炮火离我们很远,算法战争只是参与方的事。 

但请记住,战场永远是技术下沉的第一站。

过去几十年的技术史,一次次印证了这个规律。互联网最初是美国国防部的高级研究计划局项目,为了让科学家们在核战争爆发后还能远程通信。GPS原本是军用卫星系统,1983年才向民用开放。 

今天,Agent可以用来调度导弹,在几分钟内决定一个设施的存亡,明天,同样的逻辑就会被用来调度全球的物流、金融市场、甚至是你的工作岗位。 

战争的插件化,其实就是各行各业插件化的一次演练。当一个Agent可以代替指挥官去决策,它同样可以代替CEO去决策,代替医生去诊断,代替律师去辩护。人类作为决策主体的地位,正在一步步地崩塌。 

更值得琢磨的是,就在行动前一天,特朗普政府刚下令六个月内逐步停用Claude。而这款曾标榜“安全向善、拒绝军事应用”的大模型,早已突破伦理红线,成为军事打击的核心工具。 

当杀戮被简化为算法参数,当战争的门槛被AI无限降低,人类文明的底线正在被飞速发展的技术击穿。 

《华尔街日报》在一篇报道结尾留了一句耐人寻味的话: 

2026年的这场空袭,可能不是一段历史的结束,而是人类作为地球管理者身份终结的起点。 

我们创造了比我们更擅长生存和竞争的物种。 

现在,我们得学着和它相处。 

【版面之外】的话:

如果这场战争真的是Agent主导的,那么人类在最后按下批准按钮的那一刻,批准的到底是什么? 

是一个作战方案? 

还是一个AI已经完成了99%计算、只差最后一个确认动作? 

2026年2月28日的德黑兰上空,可能已经不是人类在决定谁生谁死。而是一个统计模型,在完成它的概率补全。 

那个被总统封杀、被军方偷用、被炸掉服务器的Claude,用它自己的方式,证明了AI在战争中已经不可或缺。 

四天之内,封杀、作战、爆料、宕机,这出荒诞剧告诉我们: 

AI不再是战争的工具,它已经是战争本身。 

而我们,只是旁观者。 

下一篇:没有更多了
下一篇:没有更多了