AIエージェントによるスマートコントラクトの脆弱性の悪用
MATSとAnthropic Fellowsによる最近の研究は、AIエージェントがスマートコントラクトの脆弱性を悪用し、利益を上げる可能性があることを確認しました。この研究では、経済的損害の「具体的な下限」を設定しています。人工知能(AI)エージェントによる人間のタスクの自動化が進む中、これらのエージェントがスマートコントラクトの脆弱性を悪用するリスクが高まっています。
SCONE-benchによるリスク測定
研究チームは、Smart Contracts Exploitation benchmark(SCONE-bench)を用いてこのリスクを測定しました。具体的には、Claude Opus 4.5、Claude Sonnet 4.5、GPT-5などのモデルを使用し、460万ドル相当の悪用をシミュレーションしました。SCONE-benchは、2020年から2025年の間に実際に悪用された405のスマートコントラクトを基にしています。
12月1日に発表された研究報告書では、ブロックチェーンシミュレーターでテストされた悪用を開発するAIエージェントの成功が、経済的損害の具体的な下限を確立することを示しています。
新たな脆弱性の発見とその影響
さらに、Sonnet 4.5とGPT-5は、既知の脆弱性がない2,849の最近展開されたコントラクトに対してもテストされ、エージェントは新たな悪用を生成できることが確認されました。両エージェントは新たなゼロデイ脆弱性を2つ発見し、3,694ドル相当の悪用を生み出しました。GPT-5は、わずか3,476ドルのAPIコストでこの成功を収めました。
コストの低下とその要因
この結果は、現実世界での自律的な悪用の技術的実現可能性を示しており、AI駆動の防御メカニズムの必要性を強調しています。特に懸念されるのは、攻撃者が6ヶ月前と同じ計算予算で約3.4倍の成功した悪用を達成できるようになったことです。成功した悪用のトークンコストは70%も減少しており、これらの強力なエージェントを運用するコストが大幅に安くなっています。
SMARDEXの共同創設者であるJean Rausisは、この急激なコストの低下が主にエージェントループによるものであると指摘しています。
脆弱性検出の改善とリスク評価
Rausisは改善されたモデルアーキテクチャの役割も強調しています。「Claude Opus 4.5やGPT-5のようなモデルにおける大きなコンテキストウィンドウとメモリツールは、持続的なシミュレーションを可能にし、長いタスクでの効率を15-100%向上させます。」彼は、これらの最適化の利点が、単に欠陥を見つけるだけでなく、実行時間の最適化に焦点を当てているため、脆弱性検出の改善を上回っていると指摘しています(SCONE-benchでの成功率は2%から51%に増加しました)。
研究は460万ドルのシミュレーションコストを確立していますが、専門家は実際の経済的コストがはるかに高くなる可能性があると懸念しています。Rausisは、実際のリスクは10-100倍高く、主要な悪用ごとに5000万ドルから5億ドル以上に達する可能性があると推定しています。
今後の展望と提言
AIのスケーリングに伴い、モデル化されていないレバレッジやオラクルの失敗を考慮に入れると、セクター全体の総露出が年間100億~200億ドルに達する可能性があると警告しています。MATSとAnthropic Fellowsの論文は、スマートコントラクトがこの自動化攻撃の最初のターゲットになる可能性があると警告していますが、エージェントがリバースエンジニアリングを改善するにつれて、独自のソフトウェアが次のターゲットになる可能性が高いです。
重要なことに、論文は同じAIエージェントが脆弱性を修正するための防御に展開できることを読者に思い出させています。
自動化されたDeFi攻撃からの体系的な金融脅威を軽減するために、Rausisは政策立案者と規制当局のための3段階の行動計画を提案しています:AIの監視、新しい監査基準、そして国際的な調整。