一家美国AI公司坚持不把技术用于自主武器和大规模监控,结果被自家政府贴上“国家安全风险”标签,封杀了。
而大洋彼岸的媒体说:中国乐坏了。
这是一个听起来像政治惊悚片、但真实发生在2026年2月的事件。
Anthropic,这家由前OpenAI安全负责人创立的AI独角兽,估值高达3800亿美元,年收入140亿美元,正准备上市。它的Claude模型被部署在美军机密网络中,用于情报分析、模拟推演,甚至协助抓捕外国领导人。
但就在2月27日,特朗普下令:所有联邦机构立即停用Anthropic技术,任何与军方做生意的公司必须切断与它的往来。
原因不是Anthropic做了什么错事,而是因为它拒绝做一件事——拒绝允许美军将其AI用于“大规模监控美国公民”和“完全自主的致命武器”。
这场冲突迅速发酵,演变成一场席卷政府、资本市场、知识产权战场的“三场风暴”。而风暴中心,是那个试图在技术狂奔的时代守住两条红线的AI公司。
01
第一场风暴:与华盛顿的对决
一条红线引发的“封杀”
故事的起点是2025年7月。Anthropic与五角大楼签署了一份价值2亿美元的合同,将Claude模型引入军方机密网络。但合同中明确写入两项限制:
不用于对美国人的大规模监控
不用于完全自主的致命武器
2026年1月,五角大楼发布新AI战略,态度突变:要求企业移除技术使用限制。国防部长赫格塞斯公开表示,“不会使用设限的AI模型”。
2月24日,赫格塞斯发出最后通牒:2月27日前取消限制条款,否则终止合同。
Anthropic CEO Dario Amodei在2月26日的博文中明确回应:
“我们无法昧着良心接受他们的要求……我相信民主的存亡,在相当程度上取决于这场技术革命的走向。”
2月27日,特朗普在Truth Social上宣布全面封杀:
“我已指示美国政府所有联邦机构立即停止使用Anthropic的所有技术。我们不需要它,我们不想要它,也不会再与他们做生意!”
国防部长赫格塞斯随即跟进,将Anthropic列为 “国家安全供应链风险” ——这一标签通常只用于外国对手公司。所有五角大楼承包商及合作伙伴被要求在6个月内切断与Anthropic的业务往来。
政治漩涡:两党斗争与“中国赢了”
事件迅速超出商业范畴,演变成深刻的政治斗争。
民主党方面,国会参议院情报委员会首席民主党成员马克·沃纳公开声援Anthropic:
“总统下令联邦政府停止使用一家领先的美国AI公司技术,并发表煽动性言论攻击该公司,这令人严重质疑国家安全决策究竟是出于审慎分析还是政治考量。”
共和党方面,特朗普将Anthropic斥为“左翼疯子”,赫格塞斯则直指其“披着有效利他主义的道德外衣,试图胁迫美国军方屈从”。
而最戏剧性的反应来自《华尔街日报》。在特朗普宣布封杀令后不久,该报发表社论,标题耸动:“中国才是赢家”。
文章称,特朗普采取了一种极端且毫无必要的“暴力镇压”,这不仅打击Anthropic,更可能损害美国国防——因为美军在印太司令部大量使用Claude技术对抗中国,如今将被迫放弃这些工具。
“随着AI技术的飞速发展,而中国紧随其后,五角大楼迫切需要尽可能多的AI技术支持。最终,中方成为了Anthropic禁令的受益者。”
一场美国内部的AI伦理之争,就这样被迅速纳入中美科技竞争的话语体系中。
02
第二场风暴:横扫资本市场的“AI灭霸”
就在与政府硬刚的同时,Anthropic在市场上展开了凌厉的产品攻势,成为令一众巨头闻风丧胆的“AI灭霸”。
25天四连击,精准打击多个行业:
第一击(1月30日):推出面向企业法务的AI工具,能自动处理合同审查、合规检查。2月3日市场恐慌爆发:汤森路透股价暴跌16%,CS Disco下挫12%,LegalZoom大跌20%。标普500软件与服务指数跌近4%。
第二击(2月5日):发布旗舰模型Claude Opus 4.6,编码、财务分析能力让金融数据巨头FactSet股价应声下跌7.21%,汤森路透盘中一度跌超8.5%。
第三击(2月21日):推出能高效扫描代码库漏洞并自动生成补丁的Claude Code Security。当天,网络安全龙头CrowdStrike跌超6.5%,Cloudflare和Okta跟跌,总市值一夜蒸发超100亿美元。
第四击(2月23日):宣布Claude Code能自动化完成COBOL现代化改造中最复杂的代码分析工作,直接威胁IBM核心业务。IBM股价当天大跌13.2%,创下自2000年10月以来最大单日跌幅。
25天,四次发布,精准打击法律、金融数据、网络安全、大型主机四个垂直行业——Anthropic因此被市场冠以“AI灭霸”的称号。
战略急转弯:从“破坏者”到“合作者”
然而,就在市场对“颠覆”的讨论达到顶峰时,Anthropic迅速调转船头。
2月24日,它发布了面向Claude Cowork智能体的10款全新AI插件工具,覆盖投资银行、财富管理、HR、私募股权等多个垂直场景。但这一次,它选择与行业巨头并肩而立——合作伙伴名单上,出现了此前因其产品而股价大跌的FactSet和汤森路透,以及Salesforce、普华永道等公司。
这一战略转向立即获得市场积极反馈:汤森路透股价在合作消息公布后盘中涨幅一度超过14%,创2008年以来最大涨幅;FactSet上涨5.9%。
国内SaaS行业知名创业顾问吴昊对此评论:
“以前做一个SaaS产品可能需要融2000万元,雇20人开发一年;现在两个人在车库里用AI工具,两个月可能就做出来了。但软件行业不会消失。除非AGI出现,否则当前以人类决策和协作为核心的企业软件模式不会被完全颠覆。”
03
第三场风暴:席卷全球的知识产权漩涡
就在技术扩张之际,Anthropic对中国AI技术的指控,又让自己陷入舆论泥潭。
指控中国:工业规模蒸馏攻击?
2月24日,Anthropic发布博客文章,高调指控DeepSeek、月之暗面、MiniMax“窃取”其旗舰模型Claude的能力,并称之为“工业规模蒸馏攻击”。文章声称,这三家公司利用约2.4万个虚假账号,与Claude进行了超过1600万次对话,以训练自己的模型。
然而,这一指控立刻引来广泛质疑。
伦敦大学学院名誉教授彼得·本特利博士指出:
“使用大模型来训练小模型并不罕见。在‘蒸馏’过程中,我们利用‘教师’模型产生大量输出,并以此来训练‘学生’模型。这并不是在复制教师模型的内部权重,而是在尝试复现其行为。”
他补充说,由于没有原始模型的训练数据,新模型永远无法完全克隆原模型。
更讽刺的是,Anthropic在指控中国公司后,自己补充了一句:
“蒸馏法是合理的:人工智能实验室利用蒸馏为客户创建更小、更便宜的模型。”
“贼喊捉贼”:15亿美元版权和解案
真正让舆论反噬的,是Anthropic自身的“黑历史”。
2025年9月,Anthropic因大规模从LibGen、PiLiMi等盗版网站非法下载超700万本受版权保护的图书,并使用这些盗版书籍训练AI模型,被迫向以作家安德里亚·巴茨为首的全球作家集体支付了15亿美元和解金。
埃隆·马斯克抓住机会猛烈抨击:
“Anthropic大规模窃取训练数据,并为此支付了数十亿美元的赔偿金。这是不争的事实。贼喊捉贼。”
在Anthropic指控推文的下方,网友也是一片嘲讽:
“AI实验室一边通过公开API让别人使用模型,一边又反对他人对其进行蒸馏,这真是极其讽刺。”
“我可以未经许可使用别人的数据,但谁也别想不打招呼就用我的?”
“你们训练Claude的时候,不也是用了偷来的数据吗?”
内部裂痕:安全理想正在松动?
就在封杀前两天(2月24日),Anthropic低调发布了《负责任扩展政策》的3.0版本,将此前被视为“硬性红线”的暂停训练承诺彻底删除。
之前,这一承诺明确要求:模型能力触碰到预设的危险阈值(比如足以协助生物武器研发的科学理解能力),公司必须暂停训练新模型,直到安全措施跟上。而3.0版本将其替换为以路线图、风险报告与外部评审为核心的透明度机制。
从“做不到就不许动”的刚性约束,变成了“边做边说”的灵活框架。
更早的2月9日,Anthropic安全部门主管Mrinank Sharma在X上宣布离职,并直言:
“世界正处于危险之中。这危险不仅来自AI或生物武器,而是来自此刻正在上演的一系列相互关联的危机……我反复看到,真正让我们的价值观指导我们的行动是多么困难。我看到了这一点,不仅在我自己身上,也在组织内部,我们不断面临着放弃最重要事物的压力。”
硅谷的罕见共识:奥特曼为何支持对手?
在这场五角大楼的政治封锁冲突中,一个有趣的现象出现了:Anthropic的竞争对手们,罕见地站在了它这边。
OpenAI CEO奥特曼公开支持Anthropic的核心立场,在内部备忘录中写道:
“无论我们如何走到这一步,这已不再只是Anthropic与五角大楼之间的问题,这是整个行业的问题。”
他明确表示,OpenAI同样坚守两条红线:不为大规模国内监控提供AI支持;不为无人监督的自主致命武器提供AI支持。
谷歌、微软、亚马逊的内部员工也相继签署联署信,要求管理层维持同样的限制。
超500名谷歌员工和近百名OpenAI员工签署了一份请愿书:
“我们希望公司的领导层能够放下分歧,团结一致,继续拒绝国防部目前的要求——拒绝授权其将我们的模型用于对本国民众进行大规模监控,以及在没有人类监督的情况下自主实施致命行动。”
前特朗普政府AI高级顾问迪恩·鲍尔更是痛斥政府行为是“试图谋杀一家企业”,并警告:
“我无法向任何投资者推荐投资美国AI公司;我也无法建议任何人在美国创办AI公司。美国联邦政府现在是世界上对人工智能监管最严苛的政府,远超其他任何国家——而且遥遥领先。”
04
Anthropic事件的多重启示
回顾这场“三场风暴”,Anthropic事件之所以成为全球焦点,正是因为它同时触动了技术伦理、国家安全、商业竞争、地缘政治和内部党派斗争这五根最敏感的神经。
对于AI行业:它提出了一个无法回避的问题——当技术能力逼近临界点,谁有权决定“怎么用”?是企业,是政府,还是公众?
对于资本市场:它展示了AI对传统软件业的颠覆性冲击有多快、多猛,也展示了从“破坏者”到“合作者”的战略转向有多重要。
对于知识产权:它揭示了全球AI竞赛中一个普遍的困境——大家都在用“偷来的数据”训练模型,却又互相指控“盗窃”。
对于地缘政治:它表明,任何美国内部的AI争议,都可能被迅速纳入中美竞争的话语框架,成为新的战场。
对于普通公众:它提醒我们,那些关于“AI会不会失控”的讨论,不再是科幻小说的情节,而是正在发生的现实。
Anthropic已明确表示将在法庭上挑战“供应链风险”认定。这场诉讼的结果,可能决定未来美国AI公司与政府博弈的边界在哪里。
而对于我们这些旁观者来说,这是一个值得记住的时刻:一家商业公司,因为拒绝放弃两条原则,被自家政府贴上了“国家安全风险”的标签,同时被卷入了资本市场、知识产权和国际政治的漩涡。
在AI加速狂奔的时代,这样的故事,可能才刚刚开始。
