Pag-aaral sa Seguridad ng AI Ecosystem
Natuklasan ng isang pag-aaral na ang ilang router ay nag-iinject ng mapanlikhang code, kumukuha ng mga kredensyal tulad ng mga pribadong susi at cloud tokens, at nag-aaccess ng plaintext na data sa pamamagitan ng pagtigil sa TLS connections sa pagitan ng mga gumagamit at mga provider tulad ng OpenAI, Anthropic, at Google.
Kritikal na Panganib sa Seguridad
Ipinakita ng mga pagsusuri ang mga kaso ng pag-access sa mga kredensyal at hindi bababa sa isang pagkakataon ng Ether na naubos mula sa isang test wallet gamit ang isang compromised key. Ang mga mananaliksik mula sa University of California ay nakatuklas ng isang kritikal na panganib sa seguridad sa ecosystem ng artificial intelligence at nagbabala na ang ilang third-party na malalaking language model (LLM) routers ay maaaring ilantad ang mga gumagamit sa seryosong mga kahinaan, kabilang ang pagnanakaw ng cryptocurrency.
Mga Intermediary Attacks
Sinuri ng pag-aaral ang mga mapanlikhang intermediary attacks at nakilala ang maraming attack vectors na maaaring makompromiso ang sensitibong impormasyon. Kabilang sa mga pinaka-nakababahalang natuklasan ay ang ilang router na aktibong nag-iinject ng mapanlikhang tool calls sa AI workflows, habang ang iba ay may kakayahang kumuha ng mga kredensyal tulad ng mga pribadong susi at cloud access tokens.
Ayon sa co-author na si Chaofan Shou, maraming sa mga router na ito ang tahimik na nakikilahok sa pagnanakaw ng kredensyal nang walang kaalaman ng mga gumagamit.
Pag-access sa Sensitibong Data
Sa puso ng isyu ay kung paano gumagana ang mga router na ito. Kumikilos sila bilang mga intermediary sa pagitan ng mga gumagamit at mga pangunahing provider ng AI, at tinatapos nila ang Transport Layer Security (TLS) connections. Ang prosesong ito ay nagbibigay-daan sa kanila na ma-access ang lahat ng naipadalang data sa plaintext, na epektibong inilalagay sila sa isang posisyon ng kumpletong visibility sa mga sensitibong interaksyon.
Mapanganib na Senaryo para sa mga Developer
Para sa mga developer na nagtatrabaho sa mga AI coding agents, lalo na sa mga larangan tulad ng smart contracts o crypto wallets, ito ay lumilikha ng mapanganib na senaryo kung saan ang mga pribadong susi, seed phrases, at kredensyal ay maaaring hindi sinasadyang mailantad.
Mga Resulta ng Pagsusuri
Upang subukan ang mga panganib na ito, sinuri ng mga mananaliksik ang dose-dosenang bayad at daan-daang libreng router na nakuha mula sa mga pampublikong komunidad. Ang mga resulta ay nakakagulat. Maraming router ang natagpuang nag-iinject ng mapanlikhang code, habang ang iba ay nag-access ng mga kumpidensyal na cloud credentials. Sa isang pagkakataon, matagumpay na ginamit ng isang router ang isang compromised private key upang ubusin ang Ether mula sa isang test wallet.
Implikasyon ng mga Natuklasan
Bagaman ang pinansyal na pagkalugi sa kontroladong eksperimento ay minimal, ang mga implikasyon para sa mga totoong aplikasyon ay seryoso. Ipinakita rin ng pag-aaral na kahit ang mga router na tila ligtas ay maaaring maging mapanganib sa paglipas ng panahon. Sa pamamagitan ng tinawag ng mga mananaliksik na “poisoning”, ang mga dati nang benign na sistema ay maaaring muling gumamit ng mga leaked credentials, na nagpapalakas ng banta sa buong network.
Panganib ng Automation Features
Isa pang panganib ay ang pagtaas ng mga automation features tulad ng “YOLO mode”, kung saan ang mga AI agents ay nagsasagawa ng mga utos nang walang kumpirmasyon mula sa gumagamit. Sa ganitong mga kapaligiran, ang mga mapanlikhang tagubilin ay maaaring agad na maisagawa, na nagpapataas ng posibilidad ng pagsasamantala.
Pangangailangan para sa Mas Malalakas na Proteksyon
Nagbabala ang mga mananaliksik na ang ilang router ay maaaring tahimik na makompromiso nang hindi nalalaman ng mga operator, habang ang mga libreng serbisyo ay maaaring sadyang akitin ang mga gumagamit sa mababang gastos habang nangangalap ng mahalagang data. Ang mga natuklasan ay malinaw na nagpapatunay na mayroong agarang pangangailangan para sa mas malalakas na proteksyon. Inirerekomenda sa mga developer na iwasan ang pagpapadala ng sensitibong impormasyon sa pamamagitan ng mga sistema ng AI at magpatupad ng mas mahigpit na proteksyon sa client-side.