据《时代》周刊报道,Anthropic已从其负责任扩展政策中删除了一项核心安全承诺。这一改动放松了原有的约束条款,该条款曾禁止这家Claude AI开发商在未确保安全措施到位的情况下训练先进人工智能系统。
此举改变了该公司在人工智能竞争中与OpenAI、谷歌及xAI较量的战略定位。Anthropic长期以行业中最注重安全的实验室之一自居,但根据修订后的政策,该公司不再承诺在风险缓解措施未完全到位时暂停模型训练。
Anthropic首席科学官贾里德·卡普兰表示:“我们认为停止训练人工智能模型实际上无济于事。鉴于人工智能的快速发展,在竞争对手全速前进时,我们单方面做出承诺并不合理。”
政策调整之际,Anthropic正因拒绝向美国国防部全面开放Claude访问权限而陷入公开争议,使其成为谷歌、xAI、Meta和OpenAI中唯一采取此立场的主要人工智能实验室。
兰德公司高级政策研究员爱德华·盖斯特指出,早先的“人工智能安全”框架源于当前大语言模型兴起前的特定学术圈层。
盖斯特表示:“数年前,人工智能安全曾是一个独立领域。这个概念与特定群体的观点紧密相连,这些人在现有大语言模型出现前就已开始关注强大的人工智能。”
他认为早期人工智能安全倡导者所设想的高级人工智能形态与当前技术存在本质差异。“他们构建的问题认知框架在某些方面预见了与现有大语言模型质然不同的图景。”
盖斯特进一步指出,术语调整也向投资者和政策制定者释放了信号。“部分意图在于向各方表明,这些公司不希望因所谓‘人工智能安全’顾虑而显得在商业竞争中畏缩不前。”他补充说术语本身正随时代演进。
修订安全条款的并非Anthropic独一家。非营利新闻机构近日报道指出,OpenAI在2024年税务申报文件中修改了使命陈述,删去了“安全”相关表述。该公司原有声明承诺开发“安全造福人类、不受盈利需求束缚”的通用人工智能,新版目标则简化为“确保通用人工智能造福全人类”。
“人工智能安全术语的问题在于其定义始终模糊,”盖斯特评论道,“而当前的人工智能安全概念同样存在争议。”
Anthropic新政策强调透明度措施,包括发布“前沿安全路线图”与定期“风险报告”,并承诺若存在重大灾难风险将暂停开发。
企业政策调整伴随着商业地位的强化。本月初,Anthropic宣布以约三千八百亿美元估值完成三百亿美元融资。与此同时,OpenAI正敲定由亚马逊、微软和英伟达支持的融资轮,规模或达千亿美元。
尽管多家实验室已获得美国国防部利润丰厚的合同,但Anthropic的合约因访问权限争议面临变数。随着资本涌入与地缘竞争加剧,未来生命研究所人工智能与国家安全事务负责人指出,政策转变反映的是政治动态变迁而非单纯的商业考量。
“若仅为商业利益,他们本可在一周前顺从国防部要求,”他表示,“政策重写标志着人工智能公司在政治压力与竞争激化背景下风险论述的转折。”
他认为当前 Anthropic 实际在宣称:“我们不能继续空谈安全,不能无条件暂停发展,我们将推动更宽松的监管框架。”