เครื่องมือ AI แจ้งอัตราความมีประสิทธิภาพ 97% ในการป้องกันการโจมตี ‘address poisoning’

4 สัปดาห์ ที่ผ่านมา
อ่าน 11 นาที
7 มุมมอง

บริษัท Trugard และ Webacy พัฒนาระบบป้องกันการโจมตีด้วย AI

บริษัทด้านความปลอดภัยไซเบอร์สำหรับคริปโต Trugard และโปรโตคอลความไว้วางใจบนบล็อกเชน Webacy ได้พัฒนาระบบที่ใช้ปัญญาประดิษฐ์เพื่อค้นหาการโจมตี ‘address poisoning’ ของกระเป๋าคริปโต ตามที่มีการประกาศเมื่อวันที่ 21 พฤษภาคม ซึ่งได้แชร์ข้อมูลกับ Cointelegraph

เครื่องมือนี้เป็นส่วนหนึ่งของเครื่องมือการตัดสินใจในคริปโตของ Webacy โดย “ใช้โมเดลการเรียนรู้ของเครื่องแบบมีผู้ดูแลที่ผ่านการฝึกอบรมจากข้อมูลการทำธุรกรรมจริง ร่วมกับการวิเคราะห์บนบล็อกเชน การสร้างฟีเจอร์ และบริบทพฤติกรรม” เครื่องมือใหม่นี้ถูกยืนยันว่ามีคะแนนความสำเร็จ 97% จากการทดสอบกับเหตุการณ์โจมตีที่รู้จัก

“Address poisoning เป็นหนึ่งในกลโกงที่มีการรายงานน้อยที่สุด แต่มีค่าใช้จ่ายสูงในวงการคริปโต และมันทำให้เหยื่อเข้าใจผิดว่าธุรกรรมที่เห็นคือสิ่งที่ถูกต้อง” กล่าวโดย Maika Isogawa ผู้ร่วมก่อตั้ง Webacy

การโจมตี ‘address poisoning’ คืออะไร?

การโจมตี ‘address poisoning’ ในคริปโตคือกลโกงที่ผู้โจมตีจะส่งจำนวนเงินเล็กน้อยจากกระเป๋าเงินที่มีที่อยู่คล้ายคลึงกับที่อยู่จริงของเป้าหมาย โดยมักจะมีตัวอักษรเริ่มต้นและตัวสุดท้ายเดียวกัน เป้าหมายคือการหลอกล่อผู้ใช้ให้คัดลอกและใช้ที่อยู่ของผู้โจมตีในธุรกรรมในอนาคตโดยไม่ตั้งใจ ส่งผลให้ขาดทุน

เทคนิคนี้ใช้ประโยชน์จากวิธีการที่ผู้ใช้มักจะพึ่งพาการจับคู่ที่อยู่บางส่วนหรือประวัติโคลปเมื่อส่งคริปโต การศึกษาในเดือนมกราคม 2025 พบว่ามีการพยายามโจมตีการทำให้ที่อยู่เป็นพิษมากกว่า 270 ล้านครั้ง บน BNB Chain และ Ethereum ระหว่างวันที่ 1 กรกฎาคม 2022 ถึง 30 มิถุนายน 2024 โดยมีความพยายามโจมตีที่ประสบความสำเร็จถึง 6,000 ครั้ง ส่งผลให้เกิดการขาดทุนเกินกว่า 83 ล้านดอลลาร์สหรัฐ

ความปลอดภัย Web2 ในโลก Web3

นาย Jeremiah O’Connor หัวหน้าเจ้าหน้าที่เทคโนโลยีของ Trugard กล่าวกับ Cointelegraph ว่าทีมของเขาได้นำความเชี่ยวชาญด้านความปลอดภัยไซเบอร์จากโลก Web2 มาปรับใช้กับข้อมูล Web3 ตั้งแต่วันแรก ๆ ของคริปโต ทีมงานนำประสบการณ์การสร้างฟีเจอร์แบบอัลกอริธึมจากระบบดั้งเดิมไปสู่ Web3

เขากล่าวว่า “ระบบตรวจจับการโจมตี Web3 ที่มีอยู่ส่วนใหญ่พึ่งพากฎเกณฑ์ที่ไม่เปลี่ยนแปลงหรือการกรองธุรกรรมพื้นฐาน วิธีการเหล่านี้มักตามหลังกลยุทธ์ เทคนิค และวิธีการใหม่ ๆ ของผู้โจมตี” ระบบที่พัฒนาขึ้นมาใหม่ใช้การเรียนรู้ของเครื่องเพื่อสร้างระบบที่เรียนรู้และปรับตัวต่อการโจมตีที่อยู่เป็นพิษ

O’Connor เน้นย้ำว่าสิ่งที่ทำให้ระบบของพวกเขาแตกต่างคือการ “เน้นไปที่บริบทและการรับรู้รูปแบบ” Isogawa อธิบายว่า “AI สามารถตรวจจับรูปแบบที่มักจะเกินขอบเขตของการวิเคราะห์ของมนุษย์”

วิธีการเรียนรู้ของเครื่อง

O’Connor กล่าวว่า Trugard ได้สร้างข้อมูลการฝึกอบรมแบบสังเคราะห์เพื่อให้ AI จำลองรูปแบบการโจมตีต่าง ๆ จากนั้นโมเดลจะได้รับการฝึกอบรมผ่านการเรียนรู้แบบมีผู้ดูแล ซึ่งเป็นประเภทหนึ่งของการเรียนรู้ของเครื่องที่โมเดลจะถูกสอนด้วยข้อมูลที่มีการกำหนด

ดังนั้นเป้าหมายคือให้โมเดลเรียนรู้ความสัมพันธ์ระหว่างข้อมูลนำเข้าและผลลัพธ์เพื่อพยากรณ์ผลลัพธ์ที่ถูกต้องสำหรับข้อมูลที่ใหม่และไม่เคยเห็นมาก่อน ตัวอย่างที่เป็นที่รู้จัก ได้แก่การตรวจจับสแปม การจัดประเภทภาพ และการพยากรณ์ราคา

O’Connor กล่าวว่าโมเดลยังได้รับการอัพเดตโดยการฝึกอบนข้อมูลใหม่เมื่อกลยุทธ์ใหม่เกิดขึ้น “เพื่อเสริมให้กับสิ่งนี้ เราได้สร้างชั้นการสร้างข้อมูลแบบสังเคราะห์ที่ทำให้เราสามารถทดสอบโมเดลอย่างต่อเนื่องกับสถานการณ์การทำให้ที่อยู่เป็นพิษที่จำลองขึ้น” เขากล่าว “สิ่งนี้ได้พิสูจน์ถึงความมีประสิทธิภาพอย่างมากในการช่วยให้โมเดลทั่วไปและมีประสิทธิภาพในระยะยาว”

ล่าสุดจาก Blog