2月24日,星期二。华盛顿,五角大楼。
Anthropic CEO Dario Amodei坐在国防部长Pete Hegseth对面。据NPR和CNN多家媒体援引知情人士透露,会面气氛“礼貌”,但内容毫不客气。
Hegseth给出最后通牒:周五下午5:01前,放开Claude的军事使用限制,允许五角大楼将其用于“所有合法用途”,包括自主武器瞄准和国内大规模监控。否则,取消2亿美元合同,启动《国防生产法》强制征用,并将Anthropic列为“供应链风险”实体,等同于纳入敌对国家黑名单。
同一天,Anthropic发布了第三版“负责任扩展政策”(RSP 3.0),悄然删去了公司成立以来最核心的一条承诺:若无法确保安全措施到位,就不训练更强大的模型。
也是同一天,Elon Musk在X上发帖称:“Anthropic大规模窃取训练数据,这是事实。”同时,X社区笔记补充了其因使用盗版书籍训练Claude而支付15亿美元和解金的报道。
七十二小时内,这家自称有“灵魂”的AI公司,同时扮演了三个角色:安全殉道者、知识产权窃贼、五角大楼的叛徒。哪个才是真的?也许都是。
故事的第一层很简单。
Anthropic是首家获得美国国防部机密级访问权限的AI公司。去年夏天拿到的合同上限为2亿美元。OpenAI、Google、xAI随后也各获同等规模合同。
据Al Jazeera报道,Claude曾被用于今年1月的一次美军行动,涉及委内瑞拉总统马杜罗的绑架。
但Anthropic划了两条红线:不支持全自主武器瞄准,不支持对美国公民的大规模监控。理由是人工智能的可靠性不足以操控武器,且目前尚无法律法规规范其在大规模监控中的应用。
五角大楼不买账。
白宫AI顾问David Sacks去年10月在X上公开指控Anthropic“以恐惧为武器,搞监管俘获”。
竞争对手已全面让步。OpenAI、Google、xAI均同意军方使用其AI于“所有合法场景”。Musk的Grok本周刚获批进入机密系统。
Anthropic是最后一个站着的。
截至发稿,其声明表示并未打算让步。但周五5:01的大限,已近在眼前。
一位匿名前司法部与国防部联络员对CNN表示困惑:“你怎么能同时宣布一家公司是‘供应链风险’,又强迫它为军队服务?”
好问题,但这不在五角大楼考虑范围之内。他们关心的是:若Anthropic不妥协,将采取强制手段,或直接将其弃之门外。
2月23日,Anthropic发布一篇措辞激烈的博客,指控三家中国AI公司对Claude实施“工业级蒸馏攻击”。
被告为DeepSeek、Moonshot AI、MiniMax。
Anthropic指控它们通过2.4万个伪造账户,发起超1600万次交互,定向提取Claude在智能体推理、工具调用和编程方面的核心能力。
该公司将此定性为国家安全威胁,声称蒸馏后的模型“不太可能保留安全护栏”,可能被威权政府用于网络攻击、虚假信息和大规模监控。
叙事完美,时机也精准。
恰好在特朗普政府放宽对华芯片出口管制后,恰好在需要为自身芯片出口游说寻找弹药之际。
但Musk一枪击穿:“Anthropic大规模窃取训练数据,还为此支付了数十亿美元和解金。这是事实。”

AI基础设施公司IO.Net联合创始人Tory Green指出:“你们用全网数据训练模型,然后别人用你们的公共API学习你,就叫‘蒸馏攻击’了?”
在AI行业,蒸馏是常态。OpenAI用它压缩GPT-4,Google用它优化Gemini,连Anthropic自己也在做。唯一的区别是——这次被蒸的是它自己。
据新加坡南洋理工大学AI教授Erik Cambria对CNBC表示:“合法使用与恶意利用之间的边界往往模糊。”
更讽刺的是,Anthropic刚为使用盗版书籍训练Claude支付15亿美元和解金。它用全网数据训练模型,却指控他人利用其公开接口学习它。这不是双标,而是三标。
原本想扮演受害者,结果被扒成被告。
就在与五角大楼对峙、与硅谷互撕的同一天,Anthropic发布了第三版负责任扩展政策。
首席科学家Jared Kaplan表示:“我们觉得停止训练对任何人都无益。在AI快速发展的背景下,单方面承诺……而竞争对手全速推进,这没有意义。”
换句话说:别人不讲武德,我们也不装了。
RSP 1.0和2.0的核心是一条硬性承诺:若模型能力超越安全措施覆盖范围,就暂停训练。这条承诺曾让Anthropic在AI安全圈独树一帜。
但在RSP 3.0中,它被彻底删除。
取而代之的是一个更“灵活”的框架:将内部安全措施与行业协作建议分两条轨道推进,每3至6个月发布一次风险报告,由外部专家审阅。
听起来很负责?
非营利组织METR独立审查员Chris Painter看完草案后表示:“这说明Anthropic已进入‘分诊模式’——评估和缓解风险的能力跟不上模型增长速度。这恰恰证明社会对AI潜在灾难性风险毫无准备。”
根据TIME报道,该政策修改耗时近一年,CEO Amodei与董事会全票通过。官方解释是:原政策旨在推动行业共识,但现实是行业未跟上。特朗普政府对人工智能采取放任态度,甚至试图废除各州相关法规。联邦层面的人工智能法律遥遥无期。全球治理框架的窗口,三年前已关闭。
一位长期跟踪AI治理的匿名研究员直言:“RSP是Anthropic最值钱的品牌资产。删掉暂停训练承诺,就像一家有机食品公司悄悄撕下‘有机’标签,然后告诉你检测更透明了。”
2月初,Anthropic以3800亿美元估值完成300亿美元融资,亚马逊为锚定投资者。自成立以来,实现年化收入140亿美元,过去三年每年增长超10倍。
但与此同时,五角大楼威胁将其列入黑名单,Musk公开指控其数据盗窃,核心安全承诺被删除。其人工智能安全负责人Mrinank Sharma辞职后在X上写道:“世界正处于危险之中。”
矛盾?或许矛盾正是它的基因。
这家公司由前OpenAI高管创立,初衷是担心其在安全问题上走得太快。但他们自己建公司后,以更快的速度构建更强模型,同时高调宣称这些模型有多危险。
商业模式可概括为一句话:我们比任何人都更害怕AI,所以你应该出钱让我们来造AI。
这一叙事在2023至2024年运转良好。AI安全是华盛顿热词,Anthropic是最受欢迎的游说者。
2026年,风向变了。
“woke AI”成为攻击标签,州级监管法案遭白宫阻击,尽管加州SB 53已签署成法,但联邦层面仍一片荒芜。
Anthropic的安全牌,正从“差异化优势”滑向“政治负资产”。
它在玩一场复杂的平衡术:既要足够“安全”维持品牌,又要足够“灵活”避免被市场与政府抛弃。问题是,两头的容忍空间都在缩小。
把三件事叠加来看,画面清晰了。
指控中国公司蒸馏Claude,是为了强化芯片出口管制的游说叙事;删除安全暂停承诺,是为了在军备竞赛中不掉队;拒绝五角大楼的自主武器要求,是为了保住最后一层道德外衣。
每一步都有逻辑,但彼此矛盾。
你不能一边说中国公司“蒸馏”你的模型会危害国家安全,一边删掉防止你自己的模型失控的承诺。如果模型真那么危险,你应更谨慎,而非更激进。
除非你是Anthropic。
在AI行业,身份不是由声明定义的,而是由资产负债表决定的。Anthropic的“安全”叙事,本质上是一种品牌溢价。
在AI军备竞赛早期,这种溢价值钱。投资者愿为“负责任的AI”支付更高估值,政府愿为“可信赖的AI”开绿灯,客户愿为“更安全的AI”付费。
但2026年,这个溢价正在蒸发。
Anthropic现在面临的,不是“要不要妥协”的选择题,而是“先向谁妥协”的排序题。向五角大楼妥协,品牌受损;向竞争对手妥协,安全承诺作废;向投资者妥协,两头都得让。
周五下午5:01,Anthropic将交出答案。
但无论答案如何,有一件事已确定:那个曾靠“我们和OpenAI不一样”立足的Anthropic,正在变得和所有人一样。
身份危机的终点,往往是身份的消失。
随着全球科技格局加速演变,关注前沿技术与数字资产动态的用户,可选择在币安官网下载或币安app进行实时追踪。币安提供多币种交易、低手续费与稳定服务,支持快捷注册与资产管理。用户可通过币安官网入口或币安安卓APP快速开启加密资产交易体验。对于希望拓展选择的用户,欧易官网下载同样提供安全、高效的区块链交易服务,支持多种数字资产与资产管理功能,是另一主流平台的优选。