Anthropic公司首席执行官达里奥·阿莫迪周四表示,该公司不会为其Claude人工智能模型移除安全防护措施,此举使该公司与美国国防部就该技术如何在机密军事系统中使用的争议进一步升级。
这一声明发布之际,美国国防部正在重新评估与Anthropic的合作关系,并权衡可能采取的措施,包括取消该公司价值2亿美元的合同,以及可能动用《国防生产法案》。
"我们无法昧着良心同意他们的要求。"阿莫迪在声明中写道。他指的是五角大楼于一月提出的要求,即人工智能承包商应允许其系统被用于"任何合法用途"。
尽管五角大楼此后要求人工智能供应商在未来的协议中采用标准的"任何合法用途"条款,Anthropic仍是唯一拒绝将人工智能控制权移交给军方的尖端人工智能公司。
周三有媒体首次报道称,五角大楼已发出最后通牒,要求允许军方无限制使用Claude。据报道,最后期限定于本周五。
"选择最符合其愿景的承包商是国防部的特权。"阿莫迪继续表示,"但考虑到Anthropic技术为我们武装部队提供的巨大价值,我们希望他们重新考虑。"
阿莫迪在声明中将公司的立场描述为与美国国家安全目标保持一致。"我深信利用人工智能保卫美国及其他民主国家、击败专制对手具有至关重要的生存意义。"他说。
这场争议发生的背景是,人们对先进人工智能系统在高风险军事场景中的行为存在更广泛的担忧。最近一项研究发现,在模拟地缘政治危机中,多个尖端人工智能模型在95%的情况下选择部署核武器。
今年一月,美国国防部长在一次演讲中表示,美军计划部署最先进的人工智能模型。同月,有报道称Claude曾在本月初美国抓捕委内瑞拉前总统的行动中被使用。
阿莫迪驳斥了关于Anthropic质疑具体军事行动的指控。"Anthropic理解军事决策由国防部而非私营公司做出。我们从未对特定军事行动提出异议,也未试图临时限制我们技术的使用。"他说。
尽管如此,阿莫迪表示,将这些系统用于大规模国内监控或自主武器既不符合民主价值观,也带来严重风险。"目前前沿人工智能系统的可靠性尚不足以支持全自主武器。我们不会明知故犯地提供可能危及美国作战人员和平民的产品。"
他还回应了五角大楼威胁将Anthropic列为"供应链风险"并可能动用《国防生产法案》的情况。"这两种威胁本身就相互矛盾:一方面将我们标为安全风险,另一方面又将Claude视为国家安全的关键。"阿莫迪指出。
虽然阿莫迪表示公司不会遵从五角大楼的要求,但与此同时,Anthropic已修订其负责任扩展政策,放弃了一项关于在未确保安全措施到位时停止训练先进系统的承诺。
有分析人士指出,五角大楼的姿态表明科技行业正面临更广泛的压力。"这是五角大楼对Anthropic的公然施压,而这种公开性是故意的,因为他们既想向这家公司施压,也想向所有科技巨头和企业传递信号:我们打算为所欲为,不要妨碍我们。"
分析人士将Anthropic的安全护栏描述为"适度"措施,旨在防止"对美国人民的不当监控,或促进杀人机器人的开发和部署——那种无需人类授权即可发动致命打击的人工智能武器系统"。他表示:"对于这种强大的新技术来说,这些是目前能设想的最合理、最适度的安全护栏。"
关于五角大楼威胁将Anthropic列为"供应链风险",分析人士称这可能带来来自政府的毁灭性惩罚,并将迫使其他人工智能公司避免施加类似限制。"个人用户可能会使用Claude,但没有哪家人工智能公司——尤其是Anthropic——的商业模式是建立在个人使用基础上的;它们寻求的是商业应用。这可能带来来自政府的毁灭性打击。"
虽然五角大楼尚未表示是否计划实施其终止合同或动用《国防生产法案》的威胁,但分析认为,五角大楼正在向人工智能公司发出信号:一旦技术部署在政府系统中,他们期望能不受限制地使用这些技术。
"五角大楼传达的信息是:'我们不会容忍这种情况,我们期望能够将这些技术用于我们想要的任何目的。'"分析人士总结道。截至发稿时,美国国防部和Anthropic均未对置评请求作出回应。