เครื่องมือ AI แจ้งอัตราความมีประสิทธิภาพ 97% ในการป้องกันการโจมตี ‘address poisoning’

11 เดือน ที่ผ่านมา
อ่าน 11 นาที
62 มุมมอง

บริษัท Trugard และ Webacy พัฒนาระบบป้องกันการโจมตีด้วย AI

บริษัทด้านความปลอดภัยไซเบอร์สำหรับคริปโต Trugard และโปรโตคอลความไว้วางใจบนบล็อกเชน Webacy ได้พัฒนาระบบที่ใช้ปัญญาประดิษฐ์เพื่อค้นหาการโจมตี ‘address poisoning’ ของกระเป๋าคริปโต ตามที่มีการประกาศเมื่อวันที่ 21 พฤษภาคม ซึ่งได้แชร์ข้อมูลกับ Cointelegraph

เครื่องมือนี้เป็นส่วนหนึ่งของเครื่องมือการตัดสินใจในคริปโตของ Webacy โดย “ใช้โมเดลการเรียนรู้ของเครื่องแบบมีผู้ดูแลที่ผ่านการฝึกอบรมจากข้อมูลการทำธุรกรรมจริง ร่วมกับการวิเคราะห์บนบล็อกเชน การสร้างฟีเจอร์ และบริบทพฤติกรรม” เครื่องมือใหม่นี้ถูกยืนยันว่ามีคะแนนความสำเร็จ 97% จากการทดสอบกับเหตุการณ์โจมตีที่รู้จัก

“Address poisoning เป็นหนึ่งในกลโกงที่มีการรายงานน้อยที่สุด แต่มีค่าใช้จ่ายสูงในวงการคริปโต และมันทำให้เหยื่อเข้าใจผิดว่าธุรกรรมที่เห็นคือสิ่งที่ถูกต้อง” กล่าวโดย Maika Isogawa ผู้ร่วมก่อตั้ง Webacy

การโจมตี ‘address poisoning’ คืออะไร?

การโจมตี ‘address poisoning’ ในคริปโตคือกลโกงที่ผู้โจมตีจะส่งจำนวนเงินเล็กน้อยจากกระเป๋าเงินที่มีที่อยู่คล้ายคลึงกับที่อยู่จริงของเป้าหมาย โดยมักจะมีตัวอักษรเริ่มต้นและตัวสุดท้ายเดียวกัน เป้าหมายคือการหลอกล่อผู้ใช้ให้คัดลอกและใช้ที่อยู่ของผู้โจมตีในธุรกรรมในอนาคตโดยไม่ตั้งใจ ส่งผลให้ขาดทุน

เทคนิคนี้ใช้ประโยชน์จากวิธีการที่ผู้ใช้มักจะพึ่งพาการจับคู่ที่อยู่บางส่วนหรือประวัติโคลปเมื่อส่งคริปโต การศึกษาในเดือนมกราคม 2025 พบว่ามีการพยายามโจมตีการทำให้ที่อยู่เป็นพิษมากกว่า 270 ล้านครั้ง บน BNB Chain และ Ethereum ระหว่างวันที่ 1 กรกฎาคม 2022 ถึง 30 มิถุนายน 2024 โดยมีความพยายามโจมตีที่ประสบความสำเร็จถึง 6,000 ครั้ง ส่งผลให้เกิดการขาดทุนเกินกว่า 83 ล้านดอลลาร์สหรัฐ

ความปลอดภัย Web2 ในโลก Web3

นาย Jeremiah O’Connor หัวหน้าเจ้าหน้าที่เทคโนโลยีของ Trugard กล่าวกับ Cointelegraph ว่าทีมของเขาได้นำความเชี่ยวชาญด้านความปลอดภัยไซเบอร์จากโลก Web2 มาปรับใช้กับข้อมูล Web3 ตั้งแต่วันแรก ๆ ของคริปโต ทีมงานนำประสบการณ์การสร้างฟีเจอร์แบบอัลกอริธึมจากระบบดั้งเดิมไปสู่ Web3

เขากล่าวว่า “ระบบตรวจจับการโจมตี Web3 ที่มีอยู่ส่วนใหญ่พึ่งพากฎเกณฑ์ที่ไม่เปลี่ยนแปลงหรือการกรองธุรกรรมพื้นฐาน วิธีการเหล่านี้มักตามหลังกลยุทธ์ เทคนิค และวิธีการใหม่ ๆ ของผู้โจมตี” ระบบที่พัฒนาขึ้นมาใหม่ใช้การเรียนรู้ของเครื่องเพื่อสร้างระบบที่เรียนรู้และปรับตัวต่อการโจมตีที่อยู่เป็นพิษ

O’Connor เน้นย้ำว่าสิ่งที่ทำให้ระบบของพวกเขาแตกต่างคือการ “เน้นไปที่บริบทและการรับรู้รูปแบบ” Isogawa อธิบายว่า “AI สามารถตรวจจับรูปแบบที่มักจะเกินขอบเขตของการวิเคราะห์ของมนุษย์”

วิธีการเรียนรู้ของเครื่อง

O’Connor กล่าวว่า Trugard ได้สร้างข้อมูลการฝึกอบรมแบบสังเคราะห์เพื่อให้ AI จำลองรูปแบบการโจมตีต่าง ๆ จากนั้นโมเดลจะได้รับการฝึกอบรมผ่านการเรียนรู้แบบมีผู้ดูแล ซึ่งเป็นประเภทหนึ่งของการเรียนรู้ของเครื่องที่โมเดลจะถูกสอนด้วยข้อมูลที่มีการกำหนด

ดังนั้นเป้าหมายคือให้โมเดลเรียนรู้ความสัมพันธ์ระหว่างข้อมูลนำเข้าและผลลัพธ์เพื่อพยากรณ์ผลลัพธ์ที่ถูกต้องสำหรับข้อมูลที่ใหม่และไม่เคยเห็นมาก่อน ตัวอย่างที่เป็นที่รู้จัก ได้แก่การตรวจจับสแปม การจัดประเภทภาพ และการพยากรณ์ราคา

O’Connor กล่าวว่าโมเดลยังได้รับการอัพเดตโดยการฝึกอบนข้อมูลใหม่เมื่อกลยุทธ์ใหม่เกิดขึ้น “เพื่อเสริมให้กับสิ่งนี้ เราได้สร้างชั้นการสร้างข้อมูลแบบสังเคราะห์ที่ทำให้เราสามารถทดสอบโมเดลอย่างต่อเนื่องกับสถานการณ์การทำให้ที่อยู่เป็นพิษที่จำลองขึ้น” เขากล่าว “สิ่งนี้ได้พิสูจน์ถึงความมีประสิทธิภาพอย่างมากในการช่วยให้โมเดลทั่วไปและมีประสิทธิภาพในระยะยาว”

ล่าสุดจาก Blog