2月24日,华盛顿五角大楼内,一场关乎人工智能未来走向的博弈悄然展开。Anthropic CEO Dario Amodei与国防部长Pete Hegseth会面,气氛表面礼貌,实则暗流涌动。
Hegseth提出明确要求:在周五下午5:01前,允许五角大楼将Claude用于所有合法场景,包括自主武器瞄准和国内大规模监控。否则,将取消2亿美元合同,启动《国防生产法》强制征用,并将其列入‘供应链风险’黑名单,等同于纳入敌对实体范畴。
这一压力之下,Anthropic却在同一天悄然发布第三版‘负责任扩展政策’(RSP 3.0),删去了自成立以来最核心的承诺——若无法确保安全措施到位,便不训练更强大的模型。这一举动被外界视为对自身安全叙事的重大背离。
就在同一日,Elon Musk在X平台发帖指控Anthropic大规模窃取训练数据,并附上消息称其因使用盗版书籍训练模型已支付15亿美元和解金。这使这家曾以‘灵魂级’安全承诺立身的公司,陷入多重身份撕裂的困局。
故事的第一层清晰而残酷:Anthropic是首家获得美国国防部机密级访问权限的AI公司,去年夏天签下上限2亿美元的合同。随后OpenAI、Google、xAI也相继获得同等规模支持。
据Al Jazeera报道,Claude曾参与今年1月美军针对委内瑞拉总统马杜罗的行动。然而,Anthropic划下两条红线:拒绝全自主武器系统,反对对美国公民的大规模监控。理由是当前人工智能可靠性不足,且缺乏法律规范。
但五角大楼不买账。白宫AI顾问David Sacks早前公开批评其‘以恐惧为武器,搞监管俘获’。竞争对手早已全面让步,连Musk的Grok也刚获批进入机密系统。
Anthropic成了最后一个站着的。截至发稿,公司虽未正式妥协,但距离周五5:01大限仅剩数小时。一位匿名前司法部与国防部联络员质疑:“如何既能将一家公司列为‘供应链风险’,又强迫它为军队服务?”
答案显然不在规则之内,而在权力的意志之中。
2月23日,Anthropic发布重磅博客,指控中国三家AI公司——DeepSeek、Moonshot AI、MiniMax——对其发起‘工业级蒸馏攻击’。
据称,对方通过2.4万个伪造账户,对Claude发起超1600万次交互,定向提取其在智能体推理、工具调用与编程方面的核心能力。公司称此举构成国家安全威胁,可能被威权政府用于网络攻击与虚假信息传播。
时机堪称完美:恰逢特朗普政府放宽对华芯片出口管制,也为自身游说争取更多筹码。
但Musk一枪击穿假象:“Anthropic自己就是大规模数据窃贼,为此还赔了数十亿美元。”
AI基础设施公司IO.Net联合创始人Tory Green直言:“你们用全网数据训练模型,然后别人用你们的公开API学习你,就叫‘蒸馏攻击’?这在业内本就是常态。”
OpenAI压缩GPT-4、Google优化Gemini、Anthropic自身也在做类似操作。区别在于,这次被蒸的是自己。
新加坡南洋理工大学教授Erik Cambria指出:“合法与恶意利用之间的边界本就模糊。”
讽刺的是,就在指控他人的同时,Anthropic刚刚承认因使用盗版书籍训练模型支付15亿美元和解金。一边高举“安全大旗”,一边背负数据侵权之名,其道德立场已难自圆其说。
就在与五角大楼对峙、与硅谷互撕的同一天,Anthropic发布新版负责任扩展政策(RSP 3.0)。
首席科学家Jared Kaplan表示:“在对手全速推进的背景下,单方面承诺已无意义。我们需转向更灵活的框架。”
RSP 1.0与2.0的核心是一条铁律:一旦模型能力超出安全措施覆盖范围,立即暂停训练。这条承诺曾让Anthropic在AI安全圈独树一帜。
如今,它被彻底删除。新政策将安全分为两类:内部可执行措施与需行业协作的建议。每3至6个月发布一次风险报告,由外部专家审阅。
听起来更透明?非营利组织METR审查员Chris Painter评价道:“这说明Anthropic已意识到评估速度跟不上能力增长,社会对灾难性风险准备不足。”
TIME报道称,该政策修改耗时近一年,董事会全票通过。官方解释是:原政策旨在推动行业共识,但现实是行业未跟上,联邦法规停滞,全球治理框架已关闭。
一位匿名研究员直言:“RSP是Anthropic最值钱的品牌资产。删掉暂停训练承诺,就像有机食品公司悄悄撕掉‘有机’标签,转而宣称检测更透明。”
2月初,Anthropic完成300亿美元融资,估值达3800亿美元,亚马逊为锚定投资者。自成立以来,年化收入已达140亿美元,过去三年每年增长超10倍。
然而,与此同时,五角大楼威胁列入黑名单,Musk公开指控数据盗窃,核心安全承诺被删除,首席安全官Mrinank Sharma辞职后发文:“世界正处于危险之中。”
矛盾是否注定?或许正是其基因。
这家公司由前OpenAI高管创立,初衷是防止安全失控。结果他们建起的公司,却以更快的速度构建更强模型,同时反复强调其危险性。
商业模式一句话概括:我们比谁都害怕AI,所以你应该付钱让我们来造。
这一叙事曾在2023至2024年大获成功。但到2026年,风向逆转。“woke AI”成攻击标签,州级监管法案受阻,联邦层面寸步难行。即使加州SB 53法案通过,也难掩整体立法真空。
曾经的“安全溢价”,正从差异化优势滑向政治负资产。
三件事叠加,真相浮现:
指控中国公司蒸馏,是为了强化芯片出口管制的游说;删除安全暂停承诺,是为了在军备竞赛中不掉队;拒绝军方要求,是为了守住最后一层道德外衣。
每一步都有逻辑,但彼此矛盾。你不能一边说蒸馏危害国家安全,一边放弃防止模型失控的机制。
除非你是Anthropic。
在AI行业,身份由资产负债表定义。它的“安全”本质是一种品牌溢价。
早期,这种溢价值钱。投资者愿为“负责任的AI”买单,政府愿为其开绿灯,客户愿为“更安全”的产品付费。
但2026年,这个溢价正在蒸发。
Anthropic面临的,不再是“要不要妥协”的选择题,而是“先向谁妥协”的排序题:向五角大楼妥协,品牌受损;向竞争对手妥协,安全作废;向投资者妥协,两头皆失。
周五下午5:01,答案即将揭晓。
但无论结果如何,有一件事已确定:那个曾以“我们和OpenAI不一样”立足的Anthropic,正在变得和所有人一样。
身份危机的终点,往往是身份的消失。