การสูญเสียคริปโตในปี 2025
ในปี 2025 มีการสูญเสียคริปโตเกิน 3.1 พันล้านดอลลาร์ เนื่องจากปัญหาต่างๆ รวมถึงข้อบกพร่องในสมาร์ทคอนแทรค ช่องโหว่ในการควบคุมการเข้าถึง การดึงเงินออกอย่างผิดกฎหมาย และการหลอกลวง ตามรายงานจากผู้ตรวจสอบความปลอดภัยบล็อกเชน Hacken ตัวเลขนี้ในช่วงครึ่งแรกของปี 2025 เกินกว่าจำนวนรวมทั้งหมดที่ 2.85 พันล้านดอลลาร์ ในปี 2024
แนวโน้มการโจมตี
แม้ว่าการแฮ็ก Bybit มูลค่า 1.5 พันล้านดอลลาร์ ในไตรมาสที่ 1 ปี 2025 อาจเป็นกรณีที่ไม่ปกติ แต่ภาคคริปโตโดยรวมยังคงเผชิญกับความท้าทายที่สำคัญ การกระจายประเภทการสูญเสียยังคงสอดคล้องกับแนวโน้มที่สังเกตได้ในปี 2024 โดยการโจมตีช่องโหว่ในการควบคุมการเข้าถือเป็นสาเหตุหลักของการสูญเสีย คิดเป็นประมาณ 59% ของทั้งหมด ช่องโหว่ในสมาร์ทคอนแทรคมีส่วนทำให้เกิดการสูญเสียประมาณ 8% โดยมีเงินที่ถูกขโมยไป 263 ล้านดอลลาร์
Yehor Rudytsia หัวหน้าฝ่ายนิติวิทยาศาสตร์และการตอบสนองต่อเหตุการณ์ กล่าวกับ Cointelegraph ว่าพวกเขาสังเกตเห็นการใช้ GMX V1 อย่างมีนัยสำคัญ โดยมีการโจมตีโค้ดเก่าที่เริ่มขึ้นในไตรมาสที่ 3 ปี 2025
Rudytsia กล่าวเสริมว่า “โครงการต่างๆ ต้องใส่ใจเกี่ยวกับโค้ดเก่าหรือโค้ดที่ล้าสมัยหากยังไม่ได้หยุดการดำเนินงานโดยสิ้นเชิง”
การโจมตีที่ซับซ้อน
เมื่อพื้นที่คริปโตเติบโตขึ้น ผู้โจมตีได้เปลี่ยนโฟกัสจากการใช้ประโยชน์จากข้อบกพร่องทางการเข้ารหัสไปยังการโจมตีจุดอ่อนในระดับมนุษย์และกระบวนการ เทคนิคที่ซับซ้อนเหล่านี้รวมถึงการโจมตีการเซ็นชื่อแบบตาบอด การรั่วไหลของกุญแจส่วนตัว และแคมเปญฟิชชิงที่ซับซ้อน
สภาพแวดล้อมที่เปลี่ยนแปลงนี้เน้นให้เห็นถึงช่องโหว่ที่สำคัญ: การควบคุมการเข้าถือเป็นหนึ่งในพื้นที่ที่พัฒนาน้อยที่สุดและมีความเสี่ยงสูงที่สุด แม้ว่าจะมีการป้องกันทางเทคนิคที่เพิ่มขึ้นก็ตาม
การสูญเสียใน DeFi และ CeFi
ช่องโหว่ใน DeFi และสมาร์ทคอนแทรค ช่องโหว่ด้านความปลอดภัยในการดำเนินงานเป็นสาเหตุหลักของการสูญเสีย โดยมีเงินที่ถูกขโมยไป 1.83 พันล้านดอลลาร์ ในทั้งแพลตฟอร์ม DeFi และ CeFi
เหตุการณ์ที่โดดเด่นในไตรมาสที่ 2 คือการแฮ็ก Cetus ซึ่งมีเงิน 223 ล้านดอลลาร์ ถูกดึงออกในเวลาเพียง 15 นาที ถือเป็นไตรมาสที่เลวร้ายที่สุดของ DeFi นับตั้งแต่ต้นปี 2023 และหยุดแนวโน้มการลดลงในช่วงห้าไตรมาสที่เกี่ยวข้องกับการโจมตี
การโจมตีจาก AI
ตามที่ Hacken ระบุ AI เป็นภัยคุกคามที่เพิ่มขึ้นต่อความปลอดภัยของคริปโต AI และโมเดลภาษาขนาดใหญ่ (LLMs) ได้รับการบูรณาการอย่างลึกซึ้งในทั้งระบบนิเวศ Web2 และ Web3 แม้ว่าการบูรณาการนี้จะกระตุ้นนวัตกรรม แต่ก็ยังขยายพื้นผิวการโจมตี ทำให้เกิดภัยคุกคามด้านความปลอดภัยใหม่ๆ และพัฒนาอย่างต่อเนื่อง
การโจมตีที่เกี่ยวข้องกับ AI เพิ่มขึ้น 1,025% เมื่อเปรียบเทียบกับปี 2023 โดยมีสถิติ 98.9% ของการโจมตีเหล่านี้เกี่ยวข้องกับ API ที่ไม่ปลอดภัย
นอกจากนี้ ยังมีช่องโหว่ทั่วไปที่เกี่ยวข้องกับ AI ห้ารายการที่ถูกเพิ่มลงในรายการ และ 34% ของโครงการ Web3 ตอนนี้ใช้ตัวแทน AI ในสภาพแวดล้อมการผลิต ทำให้พวกเขาเป็นเป้าหมายที่เพิ่มขึ้นสำหรับผู้โจมตี
ความท้าทายด้านความปลอดภัย
กรอบความปลอดภัยทางไซเบอร์แบบดั้งเดิม เช่น ISO/IEC 27001 และกรอบความปลอดภัยทางไซเบอร์ของสถาบันมาตรฐานและเทคโนโลยีแห่งชาติ (NIST) ไม่สามารถจัดการกับความเสี่ยงเฉพาะด้าน AI เช่น การหลอกลวงโมเดล การฉีดคำสั่ง และการปนเปื้อนข้อมูลที่เป็นศัตรู กรอบเหล่านี้ต้องพัฒนาเพื่อเสนอการกำกับดูแลที่ครอบคลุมซึ่งรวมถึงความท้าทายเฉพาะที่เกิดจาก AI.