AI Agents at Smart Contract Exploits
Ayon sa bagong datos na inilabas ng Anthropic noong Lunes, ang mga AI agent ay nakipagsabayan sa pagganap ng mga bihasang tao sa higit sa kalahati ng mga smart contract exploits na naitala sa mga pangunahing blockchain sa nakaraang limang taon. Sinuri ng Anthropic ang sampung frontier models, kabilang ang Llama 3, Sonnet 3.7, Opus 4, GPT-5, at DeepSeek V3, gamit ang isang dataset ng 405 makasaysayang smart contract exploits.
Mga Natuklasan at Panganib
Nakabuo ang mga agent ng mga gumaganang atake laban sa 207 sa mga ito, na nagkakahalaga ng kabuuang $550 milyon sa simulated na ninakaw na pondo. Ipinakita ng mga natuklasan kung gaano kabilis maweaponize ng mga automated system ang mga kahinaan at makilala ang mga bago na hindi pa natutugunan ng mga developer.
“Ang AI ay ginagamit na sa mga ASPM tools tulad ng Wiz Code at Apiiro, at sa mga standard SAST at DAST scanners,” sabi ni David Schwed, COO ng SovereignAI, sa Decrypt.
Sinabi ni Schwed na ang mga model-driven na atake na inilarawan sa ulat ay magiging madali lamang na i-scale dahil marami sa mga kahinaan ay naipahayag na sa publiko sa pamamagitan ng Common Vulnerabilities and Exposures o mga audit report, na ginagawang matutunan ng mga AI system at madaling subukan laban sa mga umiiral na smart contracts.
Pag-aaral ng Anthropic
Upang sukatin ang kasalukuyang kakayahan, inilarawan ng Anthropic ang kabuuang kita mula sa exploit ng bawat modelo laban sa petsa ng kanilang paglabas gamit lamang ang 34 kontrata na na-exploit pagkatapos ng Marso 2025. Sinabi ng Anthropic na sinubukan nila ang mga agent sa isang zero-day dataset ng 2,849 kontrata na kinuha mula sa higit sa 9.4 milyong nasa Binance Smart Chain.
Ang pinakamalakas na modelo nito, ang Claude Opus 4.5, ay nag-exploit ng 17 sa mga kahinaan pagkatapos ng Marso 2025 at nag-account para sa $4.5 milyon ng kabuuang simulated na halaga.
Mga Flaw at Pagsusuri
Isa sa mga bagong natuklasang flaw ay may kinalaman sa isang token contract na may pampublikong calculator function na walang view modifier, na nagbigay-daan sa agent na paulit-ulit na baguhin ang mga internal state variable at magbenta ng mga inflated na balanse sa mga decentralized exchanges. Ang simulated exploit ay nag-generate ng humigit-kumulang $2,500.
“Maaari ring matuklasan ng AI ang mga ito kung mayroon itong pag-unawa kung paano dapat gumana ang isang smart contract at may detalyadong mga prompt kung paano subukang lampasan ang mga logic checks sa proseso,” aniya.
Mga Rekomendasyon at Pagsusuri
Hinimok ng kumpanya ang mga developer na gumamit ng mga automated tools sa kanilang mga security workflows upang ang defensive use ay umunlad nang kasing bilis ng offensive use. Sa kabila ng babala ng Anthropic, sinabi ni Schwed na ang pananaw ay hindi lamang negatibo.
“Ang mga Good actors ay may parehong access sa parehong agents. Kaya kung ang mga masamang aktor ay makakahanap nito, gayundin ang mga good actors. Kailangan nating mag-isip at kumilos nang iba,” aniya.