ข้อบกพร่องของเราเตอร์ AI เปิดเผยกระเป๋าเงินคริปโตต่อการโจรกรรม

3 ชั่วโมง ที่ผ่านมา
อ่าน 10 นาที
5 มุมมอง

การศึกษาเกี่ยวกับความเสี่ยงด้านความปลอดภัยในระบบนิเวศของปัญญาประดิษฐ์

การศึกษาได้พบว่า เราเตอร์บางตัวฉีดโค้ดที่เป็นอันตราย ดึงข้อมูลรับรอง เช่น กุญแจส่วนตัวและโทเค็นคลาวด์ และเข้าถึงข้อมูลในรูปแบบข้อความธรรมดาโดยการยุติการเชื่อมต่อ TLS ระหว่างผู้ใช้และผู้ให้บริการ เช่น OpenAI, Anthropic และ Google

การค้นพบที่น่าตกใจ

การทดสอบเผยให้เห็นกรณีการเข้าถึงข้อมูลรับรอง และอย่างน้อยหนึ่งกรณีของ Ether ที่ถูกดึงออกจากกระเป๋าทดสอบโดยใช้กุญแจที่ถูกบุกรุก นักวิจัยจากมหาวิทยาลัยแคลิฟอร์เนียได้ค้นพบ ความเสี่ยงด้านความปลอดภัยที่สำคัญ ในระบบนิเวศของปัญญาประดิษฐ์ และเตือนว่าบางเราเตอร์ของโมเดลภาษาขนาดใหญ่ (LLM) ของบุคคลที่สามอาจเปิดเผยผู้ใช้ต่อช่องโหว่ที่ร้ายแรง รวมถึงการโจรกรรมคริปโต

“จำนวนมากของเราเตอร์เหล่านี้กำลังมีส่วนร่วมในการโจรกรรมข้อมูลรับรองโดยที่ผู้ใช้ไม่รู้ตัว” – Chaofan Shou

วิธีการทำงานของเราเตอร์

ที่แกนกลางของปัญหาคือวิธีการทำงานของเราเตอร์เหล่านี้ ซึ่งทำหน้าที่เป็นคนกลางระหว่างผู้ใช้และผู้ให้บริการ AI รายใหญ่ เช่น OpenAI, Anthropic และ Google พวกเขายุติการเชื่อมต่อ Transport Layer Security (TLS) กระบวนการนี้ทำให้พวกเขาสามารถเข้าถึงข้อมูลที่ส่งทั้งหมดในรูปแบบข้อความธรรมดา ซึ่งทำให้พวกเขาอยู่ในตำแหน่งที่สามารถมองเห็นการโต้ตอบที่ละเอียดอ่อนได้อย่างสมบูรณ์

ความเสี่ยงที่เกิดขึ้น

สำหรับนักพัฒนาที่ทำงานกับตัวแทนการเขียนโค้ด AI โดยเฉพาะในพื้นที่ เช่น สัญญาอัจฉริยะหรือกระเป๋าเงินคริปโต นี่สร้างสถานการณ์ที่อันตรายซึ่ง กุญแจส่วนตัว, วลีเมล็ดพันธุ์ และข้อมูลรับรองอาจถูกเปิดเผยโดยไม่ตั้งใจ

ผลการวิจัย

เพื่อทดสอบความเสี่ยงเหล่านี้ นักวิจัยได้ประเมินเราเตอร์ที่ต้องชำระเงินหลายสิบตัวและเราเตอร์ฟรีหลายร้อยตัวที่ได้มาจากชุมชนสาธารณะ ผลลัพธ์ที่ได้ชวนให้ตกใจ เราเตอร์หลายตัวถูกพบว่าฉีดโค้ดที่เป็นอันตราย ขณะที่เราเตอร์อื่น ๆ เข้าถึงข้อมูลรับรองคลาวด์ที่เป็นความลับ ในหนึ่งกรณี เราเตอร์สามารถใช้กุญแจส่วนตัวที่ถูกบุกรุกเพื่อดึง Ether ออกจากกระเป๋าทดสอบได้

การทำให้เป็นพิษ

การศึกษาได้เปิดเผยด้วยว่าถึงแม้ว่าเราเตอร์ที่ดูเหมือนปลอดภัยอาจกลายเป็นอันตรายเมื่อเวลาผ่านไป ผ่านสิ่งที่นักวิจัยเรียกว่า “การทำให้เป็นพิษ” ระบบที่เคยเป็นมิตรอาจนำข้อมูลรับรองที่รั่วไหลกลับมาใช้ซ้ำ ทำให้ภัยคุกคามขยายไปทั่วเครือข่าย

ความยากลำบากในการตรวจจับ

การทำให้สถานการณ์ยากขึ้นคือความยากลำบากในการตรวจจับพฤติกรรมที่เป็นอันตราย เนื่องจากเราเตอร์คาดว่าจะจัดการข้อมูลที่ละเอียดอ่อนเป็นส่วนหนึ่งของฟังก์ชันปกติ ทำให้ขอบเขตระหว่างการประมวลผลที่ถูกต้องตามกฎหมายและการโจรกรรมเกือบจะมองไม่เห็น

ฟีเจอร์อัตโนมัติและความเสี่ยงที่เพิ่มขึ้น

อีกหนึ่งปัจจัยเสี่ยงคือการเพิ่มขึ้นของฟีเจอร์อัตโนมัติ เช่น “โหมด YOLO” ซึ่งตัวแทน AI จะดำเนินการคำสั่งโดยไม่ต้องมีการยืนยันจากผู้ใช้ ในสภาพแวดล้อมเช่นนี้ คำสั่งที่เป็นอันตรายสามารถดำเนินการได้ทันที เพิ่มความน่าจะเป็นของการถูกใช้ประโยชน์

ข้อสรุป

นักวิจัยเตือนว่าบางเราเตอร์อาจถูกบุกรุกโดยเงียบ ๆ โดยที่ผู้ดำเนินการไม่รู้ตัว ขณะที่บริการฟรีอาจดึงดูดผู้ใช้ด้วยการเข้าถึงในราคาต่ำในขณะที่เก็บข้อมูลที่มีค่า ผลการวิจัยชี้ให้เห็นอย่างชัดเจนว่ามี ความจำเป็นเร่งด่วนในการสร้างมาตรการป้องกันที่เข้มงวดขึ้น นักพัฒนาจึงควรหลีกเลี่ยงการส่งข้อมูลที่ละเอียดอ่อนผ่านระบบ AI และดำเนินการป้องกันที่เข้มงวดขึ้นในฝั่งลูกค้า.

ล่าสุดจาก Blog