AI智能合约漏洞利用:专家警告DeFi领域每年可能损失100亿至200亿美元

1 周前
閱讀 3 分鐘
3 視圖

人工智能与智能合约漏洞

最近,MATS和Anthropic Fellows的一项研究确认,人工智能(AI)代理能够盈利性地利用智能合约的漏洞,从而为经济损失建立了一个“具体的下限”。随着人类任务自动化的加速,AI代理面临着一个显著且可量化的缺点:它们能够盈利性地利用智能合约的漏洞。

研究方法与结果

这项研究使用了智能合约漏洞利用基准(SCONE-bench)来衡量这一风险,成功部署了Claude Opus 4.5、Claude Sonnet 4.5和GPT-5等模型,开发出模拟价值460万美元的漏洞利用。SCONE-bench由405个在2020年至2025年间实际被利用的智能合约组成。

在12月1日的研究报告中,团队指出,AI代理在区块链模拟器上开发漏洞利用的成功,确立了“这些能力可能导致的经济损害的具体下限”。

研究进一步测试了Sonnet 4.5和GPT-5在2849个没有已知漏洞的新部署合约上的表现。这些代理证明它们能够在这一新环境中生成盈利性漏洞利用:两个代理发现了两个新的零日漏洞,并产生了价值3694美元的漏洞利用。GPT-5以仅3476美元的API成本实现了这一成功。

技术可行性与防御需求

这一结果证明了盈利性、现实世界自主利用的技术可行性,强调了迫切需要主动的AI驱动防御机制。或许最令人担忧的发现是效率的显著提高:攻击者现在可以在相同的计算预算下实现约3.4倍的成功利用。此外,成功利用的代币成本下降了惊人的70%,使得这些强大的代理的运行成本显著降低。

成本下降的原因与模型优化

SMARDEX的联合创始人Jean Rausis将这一成本急剧下降主要归因于代理循环。这些循环使得多步骤、自我纠正的工作流程得以实现,从而减少了合约分析过程中的代币浪费。Rausis还强调了改进模型架构的作用:

“像Claude Opus 4.5和GPT-5这样的模型中更大的上下文窗口和记忆工具允许持续的模拟而不重复,提高了长任务的效率15%至100%。”

他指出,这些优化收益超出了原始漏洞检测的改进(在SCONE-bench上的成功率仅从2%提高到51%),因为它们专注于优化运行时间,而不仅仅是发现缺陷。

潜在经济风险与警告

虽然研究确定了460万美元的模拟成本,但专家们担心实际经济成本可能会高得多。Rausis估计,实际风险可能高出10至100倍,可能每次重大漏洞利用的损失达到5000万至5亿美元或更多。他警告说,随着AI的扩展,考虑到未建模的杠杆和预言机故障,整个行业的总暴露可能每年达到100亿至200亿美元

未来的挑战与应对措施

MATS和Anthropic Fellows的论文最后发出警告:虽然智能合约可能是这一波自动化攻击的初始目标,但随着代理在逆向工程方面的能力提高,专有软件可能成为下一个目标。至关重要的是,论文还提醒读者,同样的AI代理可以用于防御,以修补漏洞。

为了减轻来自易于自动化的DeFi攻击的系统性金融威胁,Rausis向政策制定者和监管机构提出了三步行动计划:AI监管、新的审计标准和全球协调。