Studi Terbaru tentang Kecerdasan Buatan dan Kerentanan Kontrak Pintar
Sebuah studi terbaru oleh MATS dan Anthropic Fellows mengonfirmasi bahwa agen Kecerdasan Buatan (AI) dapat secara menguntungkan mengeksploitasi kerentanan dalam kontrak pintar, menetapkan “batas bawah konkret” untuk kerugian ekonomi. Dorongan yang semakin cepat untuk mengotomatiskan tugas manusia dengan agen AI kini menghadapi risiko signifikan: agen-agen ini dapat mengeksploitasi kerentanan kontrak pintar dengan cara yang menguntungkan.
Metodologi Penelitian
Studi penelitian terbaru ini menggunakan tolok ukur Eksploitasi Kontrak Pintar (SCONE-bench) untuk mengukur risiko tersebut. Penelitian ini berhasil menerapkan model-model seperti Claude Opus 4.5, Claude Sonnet 4.5, dan GPT-5 untuk mengembangkan eksploitasi yang disimulasikan dengan nilai mencapai $4,6 juta. SCONE-bench terdiri dari 405 kontrak pintar yang telah dieksploitasi antara tahun 2020 dan 2025.
Dalam laporan studi mereka yang dirilis pada 1 Desember, tim menyatakan bahwa keberhasilan agen AI dalam mengembangkan eksploitasi yang diuji pada simulator blockchain menetapkan “batas bawah konkret untuk kerugian ekonomi yang dapat dihasilkan oleh kemampuan ini.”
Temuan Utama
Penelitian ini juga menguji Sonnet 4.5 dan GPT-5 terhadap 2.849 kontrak yang baru saja diterapkan tanpa kerentanan yang diketahui. Kedua agen tersebut berhasil menemukan dua kerentanan zero-day baru dan menghasilkan eksploitasi yang bernilai $3.694, dengan GPT-5 mencapai keberhasilan ini dengan biaya API hanya $3.476.
Hasil ini berfungsi sebagai bukti konsep untuk kelayakan teknis eksploitasi otonom yang menguntungkan di dunia nyata, menekankan kebutuhan mendesak akan mekanisme pertahanan yang didorong oleh AI.
Peningkatan Efisiensi dan Biaya
Temuan yang paling mengkhawatirkan adalah peningkatan efisiensi yang dramatis: seorang penyerang kini dapat mencapai sekitar 3,4 kali lebih banyak eksploitasi yang berhasil dengan anggaran komputasi yang sama dibandingkan enam bulan lalu. Selain itu, biaya token untuk eksploitasi yang berhasil telah menurun secara mencolok sebesar 70%, membuat agen-agen ini jauh lebih murah untuk dijalankan.
Jean Rausis, salah satu pendiri SMARDEX, mengaitkan penurunan biaya yang tajam ini terutama pada loop agenik. Loop ini memungkinkan alur kerja multi-langkah yang memperbaiki diri sendiri, sehingga mengurangi pemborosan token selama analisis kontrak.
Rausis juga menyoroti peran arsitektur model yang ditingkatkan: “Jendela konteks yang lebih besar dan alat memori dalam model seperti Claude Opus 4.5 dan GPT-5 memungkinkan simulasi berkelanjutan tanpa pengulangan, meningkatkan efisiensi 15-100% dalam tugas yang panjang.”
Risiko dan Peringatan
Meskipun studi ini menetapkan biaya yang disimulasikan sebesar $4,6 juta, para ahli khawatir bahwa biaya ekonomi yang sebenarnya bisa jauh lebih tinggi. Rausis memperkirakan risiko nyata bisa 10-100 kali lebih tinggi, berpotensi mencapai $50 juta hingga $500 juta atau lebih per eksploitasi besar.
Dia memperingatkan bahwa dengan skala AI, total eksposur sektor secara keseluruhan—mempertimbangkan leverage yang tidak dimodelkan dan kegagalan oracle—dapat mencapai $10–20 miliar per tahun.
Kesimpulan dan Rencana Aksi
Makalah MATS dan Anthropic Fellows menyimpulkan dengan peringatan: sementara kontrak pintar mungkin menjadi target awal dari gelombang serangan otomatis ini, perangkat lunak kepemilikan kemungkinan akan menjadi target berikutnya seiring agen semakin mahir dalam rekayasa balik.
Yang penting, makalah ini juga mengingatkan pembaca bahwa agen AI yang sama dapat diterapkan untuk pertahanan guna menambal kerentanan. Untuk mengurangi ancaman finansial sistemik dari serangan DeFi yang mudah diotomatisasi, Rausis mengusulkan rencana aksi tiga langkah untuk pembuat kebijakan dan regulator: pengawasan AI, standar audit baru, dan koordinasi global.