美国人工智能公司Anthropic与安全研究组织MATS近日发布联合调查报告,显示人工智能模型已具备发现智能合约漏洞的能力,并成功开发出总价值达460万美元(约合67.574亿韩元)的攻击代码。
该研究由Anthropic红队于当地时间17日公布。报告指出,当前商用AI模型已具备足够先进的技术水平,能够对智能合约实施针对性攻击。在测试中,Anthropic的Claude Opus 4.5与Claude Sonnet 4.5,以及OpenAI的GPT-5等模型在更新最新学习数据后,通过协同合作开发出利用智能合约漏洞的方案,潜在攻击价值高达460万美元。
研究团队还对2,849个已知无安全问题的智能合约进行了测试。实验过程中,AI模型新发现两处零日漏洞,并生成可实施总值3,694美元(约543万韩元)攻击的代码。考虑到GPT-5的API使用成本为3,476美元(约510万韩元),此次攻击产生的收益已超过其开发成本。
研究报告强调:“这一案例证明在真实环境中实施可盈利的自主AI攻击在技术层面已具备可行性,亟需建立基于AI的主动防御体系。”该结果表明AI技术正在成为区块链安全领域的新兴威胁,用户、开发者及企业都需要提前核查可能被AI发现的安全漏洞,并建立相应的应对机制。