AI vs. AI: Teknologi Baru Melawan Penipuan Crypto yang Canggih

1 minggu yang lalu
3 menit baca
5 tampilan

Penipuan Cryptocurrency dan Peran Kecerdasan Buatan

Penipuan merupakan salah satu aktivitas ilegal yang paling umum di sektor cryptocurrency. Menurut temuan dari Federal Bureau of Investigation (FBI), warga AS kehilangan sekitar $9,3 miliar akibat penipuan crypto pada tahun lalu. Munculnya kecerdasan buatan (AI) justru memperburuk situasi ini. Perusahaan analitik blockchain, TRM Labs, melaporkan peningkatan 456% dalam penipuan yang difasilitasi oleh AI pada tahun 2024 dibandingkan tahun-tahun sebelumnya. Dengan kemajuan generative AI (GenAI), pelaku kejahatan kini dapat memanfaatkan chatbot canggih, video deepfake, suara yang dikloning, dan jaringan otomatis untuk melakukan penipuan dalam skala yang belum pernah terjadi sebelumnya. Akibatnya, penipuan crypto tidak lagi hanya dilakukan oleh manusia, tetapi juga bersifat algoritmik, cepat, adaptif, dan semakin meyakinkan.

Penipuan Bergerak dengan Kecepatan Kilat

Ari Redbord, kepala kebijakan dan urusan pemerintah global di TRM Labs, menjelaskan kepada Cryptonews bahwa model generatif digunakan untuk meluncurkan ribuan penipuan secara bersamaan. “Kami melihat ekosistem kriminal yang lebih pintar, lebih cepat, dan dapat diskalakan tanpa batas,” ujarnya. Redbord menambahkan bahwa model GenAI dapat menyesuaikan dengan bahasa, lokasi, dan jejak digital korban. Misalnya, dalam kasus ransomware, AI digunakan untuk memilih korban yang paling mungkin membayar, menyusun tuntutan tebusan, dan mengotomatiskan percakapan negosiasi. Dalam rekayasa sosial, Redbord menyebutkan bahwa suara dan video deepfake digunakan untuk menipu perusahaan dan individu dalam penipuan “peniruan eksekutif” dan “darurat keluarga”. Selain itu, penipuan on-chain yang melibatkan alat AI yang menulis skrip dapat memindahkan dana di ratusan dompet dalam hitungan detik, mencuci uang dengan kecepatan yang tidak mungkin dicapai oleh manusia.

Pertahanan Berbasis AI

Industri crypto kini beralih ke pertahanan berbasis AI untuk melawan penipuan ini. Perusahaan analitik blockchain, perusahaan keamanan siber, bursa, dan peneliti akademis sedang membangun sistem pembelajaran mesin yang dirancang untuk mendeteksi, menandai, dan mengurangi penipuan jauh sebelum korban kehilangan dana. Redbord menyatakan bahwa kecerdasan buatan telah diintegrasikan ke dalam setiap lapisan platform intelijen blockchain TRM Labs. Perusahaan ini menggunakan pembelajaran mesin untuk memproses triliunan titik data di lebih dari 40 jaringan blockchain, memungkinkan mereka untuk memetakan jaringan dompet, mengidentifikasi tipologi, dan mengungkap perilaku anomali yang menunjukkan potensi aktivitas ilegal. “Sistem ini tidak hanya mendeteksi pola—mereka belajar dari pola tersebut. Seiring data berubah, begitu juga modelnya, beradaptasi dengan realitas dinamis pasar crypto,” komentar Redbord. Ini memungkinkan TRM Labs untuk melihat apa yang mungkin terlewat oleh penyelidik manusia—ribuan transaksi kecil yang tampaknya tidak terkait dapat membentuk tanda tangan dari penipuan, jaringan pencucian uang, atau kampanye ransomware.

Platform Risiko Berbasis AI

Sardine, sebuah platform risiko berbasis AI, mengambil pendekatan serupa. Didirikan pada tahun 2020, saat penipuan crypto mulai mencuat, Sardine mengembangkan deteksi penipuan AI yang terdiri dari tiga lapisan. Alex Kushnir, kepala pengembangan komersial Sardine, menjelaskan bahwa data adalah inti dari segala yang mereka lakukan. “Kami menangkap sinyal mendalam di balik setiap sesi pengguna yang terjadi di platform keuangan seperti bursa crypto—seperti atribut perangkat, apakah aplikasi telah dimanipulasi, atau bagaimana perilaku pengguna. Kami juga memanfaatkan jaringan luas penyedia data tepercaya untuk setiap masukan pengguna. Akhirnya, kami menggunakan data konsorsium kami—yang mungkin paling penting untuk melawan penipuan—di mana perusahaan dapat berbagi data terkait pelaku jahat dengan perusahaan lain.” Kushnir menambahkan bahwa Sardine menggunakan mesin risiko waktu nyata untuk bertindak berdasarkan setiap indikator yang disebutkan di atas untuk melawan penipuan saat terjadi.

Kasus Penggunaan AI vs. AI

Alat-alat ini telah terbukti efektif. Matt Vega, kepala staf Sardine, mengatakan bahwa setelah Sardine mendeteksi pola, AI perusahaan melakukan analisis mendalam untuk menemukan rekomendasi tren guna menghentikan vektor serangan. “Ini biasanya akan memakan waktu sehari bagi manusia untuk menyelesaikannya, tetapi menggunakan AI hanya membutuhkan beberapa detik,” ujarnya. Vega menjelaskan bahwa Sardine bekerja sama dengan bursa crypto terkemuka untuk menandai perilaku pengguna yang tidak biasa. Transaksi pengguna dijalankan melalui platform keputusan Sardine, dan analisis AI membantu menentukan hasil dari transaksi ini, memberikan pemberitahuan awal kepada bursa. Sebuah posting blog TRM Labs juga menjelaskan bahwa pada bulan Mei, perusahaan menyaksikan deepfake langsung selama panggilan video dengan seorang penipu yang kemungkinan terlibat dalam penipuan grooming finansial. Jenis penipu ini membangun hubungan jangka panjang, saling percaya, dan sering kali emosional atau romantis dengan korban untuk mendapatkan akses ke uang mereka. “Kami curiga penipu ini menggunakan teknologi deepfake karena garis rambut orang tersebut terlihat tidak alami,” jelas Redbord. “Alat deteksi AI memungkinkan kami untuk mengonfirmasi penilaian kami bahwa gambar tersebut kemungkinan dihasilkan oleh AI.” Meskipun TRM Labs berhasil, penipuan spesifik ini dan yang terkait dengannya telah mencuri sekitar $60 juta dari korban yang tidak menyadari.

Melindungi Terhadap Penipuan Berbasis AI

Meskipun jelas bahwa alat berbasis AI digunakan untuk mendeteksi dan mencegah penipuan canggih, serangan ini akan terus meningkat. “AI menurunkan hambatan untuk masuk ke dalam kejahatan canggih, membuat penipuan ini sangat dapat diskalakan dan dipersonalisasi, sehingga pasti akan mendapatkan lebih banyak perhatian,” komentar Kerbs. Kerbs percaya bahwa agen AI jahat semi-otonom akan segera dapat mengatur seluruh kampanye serangan, memerlukan pengawasan manusia minimal dengan peniruan deepfake suara-ke-suara yang tidak dapat dilacak dalam panggilan langsung. Meskipun mengkhawatirkan, Vega menunjukkan bahwa ada langkah-langkah spesifik yang dapat diambil pengguna untuk mencegah menjadi korban penipuan semacam itu. Misalnya, ia menjelaskan bahwa banyak vektor serangan adalah situs web palsu, yang pada akhirnya akan dikunjungi pengguna dan kemudian mengklik tautan palsu. “Pengguna harus mencari huruf alfabet Yunani di situs web. Perusahaan teknologi multinasional Amerika, Apple, baru-baru ini menjadi korban hal ini, karena seorang penyerang membuat situs web palsu menggunakan huruf ‘A’ Yunani di Apple. Pengguna juga harus menjauh dari tautan bersponsor dan memperhatikan URL.” Selain itu, perusahaan seperti Sardine dan TRM Labs bekerja sama dengan regulator untuk menentukan bagaimana membangun pengaman yang menggunakan AI untuk mengurangi risiko penipuan berbasis AI. “Kami sedang membangun sistem yang memberikan penegak hukum dan profesional kepatuhan kecepatan, skala, dan jangkauan yang sama yang sekarang dimiliki para penjahat—dari mendeteksi anomali waktu nyata hingga mengidentifikasi pencucian lintas rantai yang terkoordinasi. AI memungkinkan kami untuk mengubah manajemen risiko dari sesuatu yang reaktif menjadi sesuatu yang prediktif,” kata Redbord.