Nagbabala ang Google Tungkol sa Kampanya ng Malware na Pinapagana ng AI mula sa Hilagang Korea na Target ang Crypto at DeFi

8 mga oras nakaraan
3 min na nabasa
1 view

Babala mula sa Google at Mandiant

Nagbigay ng babala ang security team ng Google sa Mandiant na ang mga hacker mula sa Hilagang Korea ay gumagamit ng mga deepfake na nilikha ng artificial intelligence sa mga pekeng video meetings bilang bahagi ng mga lalong sopistikadong pag-atake laban sa mga kumpanya ng cryptocurrency.

Imbestigasyon sa Paglusob

Ayon sa isang ulat na inilabas noong Lunes, kamakailan lamang ay nagsagawa ang Mandiant ng imbestigasyon sa isang paglusob sa isang fintech company na iniuugnay nito sa UNC1069, o “CryptoCore“, isang banta na may mataas na tiwala na konektado sa Hilagang Korea. Ang pag-atake ay gumamit ng isang nakompromisong Telegram account, isang pekeng Zoom meeting, at isang tinatawag na ClickFix technique upang linlangin ang biktima na patakbuhin ang mga mapanlikhang utos.

Paglalarawan ng Pag-atake

Natatagpuan din ng mga imbestigador ang ebidensya na ang AI-generated video ay ginamit upang linlangin ang target sa panahon ng pekeng pulong. Sinabi ng ulat,

“Nakita ng Mandiant na ginagamit ng UNC1069 ang mga teknik na ito upang targetin ang parehong mga corporate entity at indibidwal sa industriya ng cryptocurrency, kabilang ang mga software firms at kanilang mga developer, pati na rin ang mga venture capital firms at kanilang mga empleyado o executive.”

Paglago ng Pagnanakaw ng Cryptocurrency

Ang babala ay lumabas habang patuloy na lumalaki ang mga pagnanakaw ng cryptocurrency mula sa Hilagang Korea. Noong kalagitnaan ng Disyembre, sinabi ng blockchain analytics firm na Chainalysis na ang mga hacker mula sa Hilagang Korea ay nagnakaw ng $2.02 bilyon sa cryptocurrency noong 2025, isang 51% na pagtaas mula sa nakaraang taon. Ang kabuuang halaga na nakuha ng mga aktor na konektado sa DPRK ay umabot na sa humigit-kumulang $6.75 bilyon, kahit na ang bilang ng mga pag-atake ay bumaba.

Pagbabago sa Estratehiya ng Cybercriminals

Ang mga natuklasan ay nagha-highlight ng mas malawak na pagbabago sa kung paano kumikilos ang mga cybercriminal na konektado sa estado. Sa halip na umasa sa malawakang phishing campaigns, ang CryptoCore at mga katulad na grupo ay nakatuon sa mga lubos na nakatutok na pag-atake na umaabuso sa tiwala sa mga karaniwang digital na interaksyon, tulad ng mga paanyaya sa kalendaryo at mga video call.

Detalyadong Paglalarawan ng Insidente

Ayon sa Mandiant, nagsimula ang pag-atake nang makipag-ugnayan ang biktima sa Telegram sa isang tao na tila isang kilalang executive ng cryptocurrency na ang account ay nakompromiso na. Matapos makabuo ng ugnayan, nagpadala ang attacker ng Calendly link para sa isang 30-minutong pulong na nagdirekta sa biktima sa isang pekeng Zoom call na pinangunahan sa sariling imprastruktura ng grupo.

Sa panahon ng tawag, iniulat ng biktima na nakita niya ang tila isang deepfake video ng isang kilalang CEO ng crypto. Nang magsimula ang pulong, inangkin ng mga attacker na may mga problema sa audio at inutusan ang biktima na patakbuhin ang mga “troubleshooting” na utos, isang ClickFix technique na sa huli ay nag-trigger ng impeksyon ng malware.

Pagkilala sa Malware

Ang forensic analysis ay kalaunan ay nakilala ang pitong natatanging pamilya ng malware sa sistema ng biktima, na inilunsad sa isang tila pagsisikap na mangolekta ng mga kredensyal, data ng browser at session tokens para sa pinansyal na pagnanakaw at hinaharap na impersonation.

Mga Pahayag mula sa mga Eksperto

Sinabi ni Fraser Edwards, co-founder at CEO ng decentralized identity firm na cheqd, na ang pag-atake ay sumasalamin sa isang pattern na madalas niyang nakikita laban sa mga tao na ang mga trabaho ay nakasalalay sa mga remote meetings at mabilis na koordinasyon.

“Ang bisa ng pamamaraang ito ay nagmumula sa kung gaano kaliit ang kailangang magmukhang hindi pangkaraniwan,”

sabi ni Edwards.

Idinagdag niya na ang AI ay ginagamit na ngayon upang suportahan ang impersonation sa labas ng mga live na tawag.

“Ginagamit ito upang mag-draft ng mga mensahe, ituwid ang tono ng boses, at i-mirror ang paraan ng pakikipag-usap ng isang tao sa kanilang mga kasamahan o kaibigan. Ginagawa nitong mas mahirap tanungin ang mga karaniwang mensahe at binabawasan ang pagkakataon na ang isang tatanggap ay huminto nang sapat upang beripikahin ang interaksyon,”

ipinaliwanag niya.

Mga Panganib ng AI sa Komunikasyon

Nagbabala si Edwards na ang panganib ay tataas habang ang mga AI agents ay ipinakilala sa pang-araw-araw na komunikasyon at paggawa ng desisyon.

“Maaari ng mga agents na magpadala ng mga mensahe, mag-iskedyul ng mga tawag, at kumilos sa ngalan ng mga gumagamit sa bilis ng makina. Kung ang mga sistemang iyon ay inaabuso o nakompromiso, ang deepfake audio o video ay maaaring awtomatikong ilunsad, na ginagawang ang impersonation mula sa isang manu-manong pagsisikap tungo sa isang scalable na proseso,”

aniya.

“Hindi makatotohanan” na asahan ang karamihan sa mga gumagamit na malaman kung paano makilala ang isang deepfake, sabi ni Edwards, na idinagdag na,

“Ang sagot ay hindi ang paghingi sa mga gumagamit na magbigay ng higit na pansin, kundi ang pagbuo ng mga sistemang nagpoprotekta sa kanila sa default. Ibig sabihin nito ay ang pagpapabuti kung paano ang pagiging tunay ay ipinapakita at nabeberipika, upang ang mga gumagamit ay mabilis na maunawaan kung ang nilalaman ay tunay, synthetic, o hindi nabeberipika nang hindi umaasa sa instinct, pamilyar, o manu-manong imbestigasyon.”