2月24日,华盛顿五角大楼内,一场关于人工智能未来走向的博弈悄然升温。Anthropic CEO Dario Amodei与国防部长Pete Hegseth会面,气氛表面礼貌,实则剑拔弩张。
Hegseth提出明确要求:在周五下午5:01前,允许五角大楼将Claude用于所有合法用途,包括自主武器瞄准与国内大规模监控;否则将启动《国防生产法》,强制征用技术,并将其列为‘供应链风险’实体,等同于纳入敌对国家黑名单。
这一通牒不仅关乎合同存续,更触及了人工智能治理的核心命题——谁来定义‘安全’?谁有权决定其应用边界?
作为首家获得美国国防部机密访问权限的AI公司,Anthropic去年夏初斩获2亿美元合同,与OpenAI、Google、xAI齐名。但与其他企业不同,它始终划下两条红线:不支持全自主武器系统,不参与对美国公民的大规模监控。
然而,白宫AI顾问David Sacks早前已在社交平台公开批评其“以恐惧为武器,搞监管俘获”。而竞争对手已全面让步——OpenAI、Google、xAI均同意军方全场景使用,Musk的Grok也已获批进入机密系统。
Anthropic成了唯一一个仍坚持道德底线的玩家。但现实是,当国家安全与商业利益交织,所谓“负责任”的立场,可能只是暂时的奢侈品。
截至发稿,该公司尚未宣布妥协,但5:01的截止时间已近在咫尺。一位匿名前司法部联络员质疑:“如何既能将一家公司列为‘供应链风险’,又强迫它为军队服务?”这正是五角大楼当前面临的逻辑悖论。
就在与五角大楼对峙之际,Anthropic发布一篇措辞激烈的博客,指控中国三家AI公司——DeepSeek、Moonshot AI、MiniMax——对其实施“工业级蒸馏攻击”。
据称,对方通过2.4万个伪造账户,发起超1600万次交互,试图提取Claude在智能体推理、工具调用与编程方面的核心能力。公司将其定性为“国家安全威胁”,声称此类模型一旦被威权政府掌控,可能用于网络攻击与虚假信息传播。
然而,讽刺的是,就在同一时间,Elon Musk在X上发文称:“Anthropic大规模窃取训练数据,这是事实。”并附上报道指出,其因使用盗版书籍训练模型,已支付15亿美元和解金。
AI基础设施公司IO.Net联合创始人Tory Green直言:“你们用全网数据训练模型,然后别人用你的公共API学习你,就叫‘蒸馏攻击’?这不过是行业常态。”
事实上,OpenAI、Google、Meta乃至Anthropic自身,都曾采用类似方法压缩模型。区别在于,这次被“蒸馏”的,是他们自己。
南洋理工大学教授Erik Cambria指出:“合法与恶意之间的界限本就模糊。若连基本的数据使用原则都无法厘清,谈何国家安全?”
同一天,Anthropic发布第三版《负责任扩展政策》(RSP 3.0),彻底删除了自成立以来最核心的一条承诺:若无法保证安全措施到位,则暂停训练更强大模型。
首席科学家Jared Kaplan解释称:“在对手全速推进的背景下,单方面承诺已无意义。”取而代之的是一个“灵活框架”——每3至6个月发布一次风险评估报告,由外部专家审阅,分两轨推进内部安全措施与行业协作建议。
看似透明,实则松动。非营利组织METR审查员Chris Painter评论道:“这表明公司已放弃‘主动刹车’的能力,进入‘分诊模式’——即承认我们无法控制风险增长速度。”
TIME报道称,该政策修改历时近一年,董事会全票通过。官方说法是:原政策旨在推动行业共识,但现实是,联邦层面的人工智能法律长期缺位,特朗普政府甚至试图废除各州法规。全球治理框架已然关闭。
一位匿名研究员直言:“RSP是Anthropic最值钱的品牌资产。删掉暂停训练承诺,就像有机食品公司悄悄撕掉‘有机’标签,转而强调检测流程更透明。”
2月初,Anthropic完成新一轮融资,估值达3800亿美元,亚马逊为锚定投资者。过去三年,年化收入从数亿美元飙升至140亿美元,年增长率超10倍。
但与此同时,五角大楼威胁列入黑名单,Musk公开指控数据剽窃,核心安全承诺被删除,人工智能安全负责人Mrinank Sharma辞职后在社交平台感叹:“世界正处于危险之中。”
矛盾成为其基因。这家公司由前OpenAI高管创立,初衷是“比OpenAI走得更慢、更安全”。如今却以更快的速度构建更强模型,同时高喊“危险”。
其商业模式可概括为一句话:我们比任何人都更害怕AI,所以你应该出钱让我们来造AI。
这一叙事曾在2023至2024年大获成功。但在2026年,风向已变。“woke AI”标签盛行,加州SB 53虽成法,但联邦立法寸步难行。曾经的“安全牌”,正沦为政治负资产。
把三件事叠加来看,画面清晰:指控中国公司“蒸馏”是为强化芯片出口管制游说;删除安全承诺是为了在军备竞赛中不掉队;拒绝军方要求则是为守住最后一层道德外衣。
每一步都有逻辑,但彼此矛盾。若模型真如所言危险,为何不再暂停训练?若其能力足以威胁国家安全,为何又要被允许用于武器系统?
答案或许只有一个:在资本与权力的夹缝中,身份不再由宣言定义,而是由资产负债表决定。
Anthropic的“安全”叙事,本质是一种品牌溢价。在早期,这种溢价极具价值——投资者愿付更高估值,政府愿开绿灯,客户愿为“更可信”买单。
但2026年,这个溢价正在蒸发。它面临的问题不再是“是否妥协”,而是“先向谁妥协”:向五角大楼妥协,品牌受损;向竞争者妥协,承诺作废;向投资者妥协,两头皆失。
周五下午5:01,答案即将揭晓。无论结果如何,有一点已成定局:那个曾以“我们和OpenAI不一样”立足的Anthropic,正变得和所有人一样。
身份危机的终点,往往是身份的消失。
随着全球人工智能治理格局重塑,选择可靠平台至关重要。对于关注前沿科技与合规生态的用户,可前往币安官网下载最新版币安app,获取权威资讯与实时数据支持;亦可通过欧易官网入口注册,体验多币种交易与资产管理服务,拓展数字资产布局视野。