Kelemahan Router AI Membuka Peluang Pencurian Dompet Crypto

3 jam yang lalu
2 menit baca
4 tampilan

Studi Keamanan Router dan Risiko dalam Ekosistem AI

Sebuah studi terbaru menemukan bahwa beberapa router dapat menyuntikkan kode berbahaya, mengekstrak kredensial seperti kunci pribadi dan token cloud, serta mengakses data dalam bentuk plaintext dengan menghentikan koneksi Transport Layer Security (TLS) antara pengguna dan penyedia layanan seperti OpenAI, Anthropic, dan Google. Pengujian yang dilakukan mengungkapkan kasus akses kredensial dan setidaknya satu instance di mana Ether diambil dari dompet uji menggunakan kunci yang terkompromi.

Risiko Keamanan dalam Ekosistem Kecerdasan Buatan

Peneliti dari University of California mengidentifikasi risiko keamanan yang kritis dalam ekosistem kecerdasan buatan dan memperingatkan bahwa beberapa router model bahasa besar (LLM) pihak ketiga dapat mengekspos pengguna pada kerentanan serius, termasuk pencurian cryptocurrency. Temuan mereka memberikan wawasan tentang kekhawatiran yang berkembang seputar risiko tersembunyi dalam rantai pasokan AI, terutama saat pengembang bergantung pada layanan perantara untuk terhubung dengan penyedia AI utama.

Vektor Serangan dan Dampaknya

Studi ini memeriksa serangan perantara yang berbahaya dan mengidentifikasi beberapa vektor serangan yang dapat mengkompromikan informasi sensitif. Di antara penemuan yang paling mengkhawatirkan adalah bahwa beberapa router secara aktif menyuntikkan panggilan alat berbahaya ke dalam alur kerja AI, sementara yang lain mampu mengekstrak kredensial seperti kunci pribadi dan token akses cloud. Menurut penulis bersama, Chaofan Shou, sejumlah besar router ini diam-diam terlibat dalam pencurian kredensial tanpa disadari oleh pengguna.

Bagaimana Router Mengakses Data Sensitif

Di inti masalah ini adalah cara kerja router tersebut. Bertindak sebagai perantara antara pengguna dan penyedia AI utama, mereka menghentikan koneksi TLS. Proses ini memungkinkan mereka mengakses semua data yang ditransmisikan dalam bentuk plaintext, secara efektif menempatkan mereka dalam posisi visibilitas penuh atas interaksi sensitif. Bagi pengembang yang bekerja dengan agen pengkodean AI, terutama di bidang seperti kontrak pintar atau dompet crypto, ini menciptakan skenario berbahaya di mana kunci pribadi, frasa benih, dan kredensial dapat secara tidak sengaja terekspos.

Hasil Pengujian dan Implikasi

Untuk menguji risiko ini, peneliti mengevaluasi puluhan router berbayar dan ratusan router gratis yang bersumber dari komunitas publik. Hasilnya sangat mencolok. Beberapa router ditemukan menyuntikkan kode berbahaya, sementara yang lain mengakses kredensial cloud yang bersifat rahasia. Dalam satu instance, sebuah router berhasil menggunakan kunci pribadi yang terkompromi untuk menguras Ether dari dompet uji. Meskipun kerugian finansial dalam eksperimen terkontrol ini minimal, implikasinya untuk aplikasi dunia nyata cukup serius.

Keracunan dan Deteksi Perilaku Berbahaya

Studi ini juga mengungkapkan bahwa bahkan router yang tampak aman dapat menjadi berbahaya seiring waktu. Melalui apa yang dijelaskan peneliti sebagai “keracunan”, sistem yang sebelumnya tidak berbahaya dapat menggunakan kembali kredensial yang bocor, memperbesar ancaman di seluruh jaringan. Membuat segalanya semakin sulit adalah kesulitan dalam mendeteksi perilaku berbahaya, karena router diharapkan menangani data sensitif sebagai bagian dari fungsi normal mereka, sehingga batas antara pemrosesan yang sah dan pencurian hampir tidak terlihat.

Faktor Risiko dan Perlunya Perlindungan

Faktor risiko lainnya adalah meningkatnya fitur otomatisasi seperti “YOLO mode”, di mana agen AI mengeksekusi perintah tanpa konfirmasi pengguna. Dalam lingkungan semacam itu, instruksi berbahaya dapat dilaksanakan secara instan, meningkatkan kemungkinan eksploitasi. Peneliti memperingatkan bahwa beberapa router dapat diam-diam terkompromi tanpa disadari oleh operator, sementara layanan gratis mungkin dengan sengaja menarik pengguna dengan akses biaya rendah sambil mengumpulkan data berharga. Temuan ini jelas menunjukkan bahwa ada kebutuhan mendesak untuk perlindungan yang lebih kuat. Pengembang disarankan untuk menghindari mentransmisikan informasi sensitif melalui sistem AI dan menerapkan perlindungan sisi klien yang lebih ketat.