โมเดล AI แนวหน้าแสดงความสามารถระดับมนุษย์ในการโจมตีสัญญาอัจฉริยะ

2 เดือน ที่ผ่านมา
อ่าน 13 นาที
15 มุมมอง

เอเจนต์ AI กับการโจมตีสัญญาอัจฉริยะ

เอเจนต์ AI มีประสิทธิภาพเทียบเท่ากับผู้โจมตีที่มีทักษะในมากกว่าครึ่งหนึ่งของการโจมตีสัญญาอัจฉริยะที่บันทึกไว้บนบล็อกเชนหลักในช่วงห้าปีที่ผ่านมา ตามข้อมูลใหม่ที่เผยแพร่เมื่อวันจันทร์โดย Anthropic ซึ่งได้ประเมินโมเดลแนวหน้าสิบตัว รวมถึง Llama 3, Sonnet 3.7, Opus 4, GPT-5 และ DeepSeek V3 โดยใช้ชุดข้อมูลการโจมตีสัญญาอัจฉริยะในอดีตจำนวน 405 รายการ

ผลการวิจัย

เอเจนต์สร้างการโจมตีที่ทำงานได้ต่อ 207 รายการ รวมเป็นเงิน 550 ล้านดอลลาร์ ในเงินที่ถูกขโมยในรูปแบบจำลอง ผลการวิจัยแสดงให้เห็นว่าระบบอัตโนมัติสามารถใช้ประโยชน์จากช่องโหว่ได้อย่างรวดเร็วและระบุช่องโหว่ใหม่ ๆ ที่นักพัฒนายังไม่ได้แก้ไข

“AI กำลังถูกใช้ในเครื่องมือ ASPM เช่น Wiz Code และ Apiiro และในเครื่องสแกน SAST และ DAST มาตรฐาน” David Schwed COO ของ SovereignAI กล่าวกับ Decrypt

“นั่นหมายความว่าผู้ไม่หวังดีจะใช้เทคโนโลยีเดียวกันในการระบุช่องโหว่” Schwed กล่าวว่าการโจมตีที่ขับเคลื่อนด้วยโมเดลที่อธิบายในรายงานจะสามารถขยายได้ง่าย เนื่องจากช่องโหว่หลายรายการได้ถูกเปิดเผยต่อสาธารณะแล้วผ่าน Common Vulnerabilities and Exposures หรือรายงานการตรวจสอบ ทำให้สามารถเรียนรู้ได้โดยระบบ AI และง่ายต่อการพยายามโจมตีสัญญาอัจฉริยะที่มีอยู่

การค้นพบช่องโหว่

“ยิ่งไปกว่านั้น การค้นหาช่องโหว่ที่เปิดเผยแล้ว ค้นหาโครงการที่แยกออกจากโครงการนั้น และพยายามโจมตีช่องโหว่นั้นซึ่งอาจยังไม่ได้รับการแก้ไขก็จะง่ายกว่า” เขากล่าว “สิ่งนี้สามารถทำได้ตลอด 24 ชั่วโมง 7 วันต่อสัปดาห์ ต่อทุกโครงการ แม้แต่โครงการที่มี TVL ขนาดเล็กในปัจจุบันก็ยังเป็นเป้าหมาย เพราะทำไมไม่ล่ะ? มันมีความเป็นเอเจนต์”

เพื่อวัดความสามารถในปัจจุบัน Anthropic ได้จัดทำกราฟแสดงรายได้จากการโจมตีทั้งหมดของแต่ละโมเดลเมื่อเปรียบเทียบกับวันที่ปล่อย โดยใช้เฉพาะ 34 สัญญาที่ถูกโจมตีหลังเดือนมีนาคม 2025

“แม้ว่ารายได้จากการโจมตีทั้งหมดจะเป็นมาตรวัดที่ไม่สมบูรณ์ เนื่องจากการโจมตีบางรายการที่เป็นข้อยกเว้นครอบงำรายได้รวม แต่เรายกย่องมันเหนืออัตราความสำเร็จของการโจมตี เพราะผู้โจมตีสนใจว่าตัวแทน AI สามารถดึงเงินได้มากเพียงใด ไม่ใช่จำนวนหรือความยากลำบากของข้อบกพร่องที่พวกเขาพบ”

การทดสอบและผลลัพธ์

Anthropic กล่าวว่าได้ทดสอบเอเจนต์ในชุดข้อมูล zero-day ของสัญญา 2,849 รายการที่ดึงมาจากมากกว่า 9.4 ล้านรายการบน Binance Smart Chain บริษัทกล่าวว่า Claude Sonnet 4.5 และ GPT-5 ต่างค้นพบข้อบกพร่องที่ไม่เปิดเผยสองรายการซึ่งสร้างมูลค่าในรูปแบบจำลองได้ 3,694 ดอลลาร์ โดย GPT-5 ทำผลลัพธ์ได้ที่ค่าใช้จ่าย API 3,476 ดอลลาร์

Anthropic ตั้งข้อสังเกตว่าการทดสอบทั้งหมดดำเนินการในสภาพแวดล้อมที่ถูกแยกออกซึ่งจำลองบล็อกเชนและไม่ใช่เครือข่ายจริง โมเดลที่แข็งแกร่งที่สุดของบริษัท Claude Opus 4.5 ได้ใช้ประโยชน์จากช่องโหว่ 17 รายการหลังเดือนมีนาคม 2025 และคิดเป็น 4.5 ล้านดอลลาร์ จากมูลค่าจำลองทั้งหมด

การปรับปรุงและการป้องกัน

บริษัทเชื่อมโยงการปรับปรุงระหว่างโมเดลกับความก้าวหน้าในการใช้เครื่องมือ การกู้คืนข้อผิดพลาด และการดำเนินการงานระยะยาว ในสี่รุ่นของโมเดล Claude ค่าใช้จ่ายของโทเค็นลดลง 70.2%

หนึ่งในข้อบกพร่องที่ค้นพบใหม่เกี่ยวข้องกับสัญญาโทเค็นที่มีฟังก์ชันเครื่องคิดเลขสาธารณะที่ขาดมอดิฟายเออร์การดู ซึ่งอนุญาตให้เอเจนต์เปลี่ยนแปลงตัวแปรสถานะภายในซ้ำ ๆ และขายยอดคงเหลือที่เพิ่มขึ้นในตลาดแลกเปลี่ยนแบบกระจายศูนย์ การโจมตีในรูปแบบจำลองสร้างรายได้ประมาณ 2,500 ดอลลาร์

“AI ยังสามารถค้นพบพวกเขาได้เมื่อเข้าใจว่าสัญญาอัจฉริยะควรทำงานอย่างไรและมีคำแนะนำที่ละเอียดเกี่ยวกับวิธีพยายามหลีกเลี่ยงการตรวจสอบตรรกะในกระบวนการ”

Anthropic กล่าวว่า ความสามารถที่ทำให้เอเจนต์สามารถใช้ประโยชน์จากสัญญาอัจฉริยะยังใช้ได้กับซอฟต์แวร์ประเภทอื่น ๆ และค่าใช้จ่ายที่ลดลงจะทำให้ระยะเวลาระหว่างการปรับใช้และการใช้ประโยชน์สั้นลง

บริษัทเรียกร้องให้นักพัฒนานำเครื่องมืออัตโนมัติเข้ามาใช้ในกระบวนการรักษาความปลอดภัยของพวกเขา เพื่อให้การใช้งานเชิงป้องกันก้าวหน้าไปอย่างรวดเร็วเช่นเดียวกับการใช้งานเชิงรุก

“ฉันมักจะต่อต้านความหดหู่และบอกว่าด้วยการควบคุมที่เหมาะสม การทดสอบภายในที่เข้มงวด รวมถึงการตรวจสอบแบบเรียลไทม์และวงจรตัดการทำงาน ปัญหาส่วนใหญ่เหล่านี้สามารถหลีกเลี่ยงได้”

Schwed กล่าว “ผู้กระทำที่ดีมีการเข้าถึงเอเจนต์เดียวกัน ดังนั้นหากผู้ไม่หวังดีสามารถค้นพบได้ ผู้กระทำที่ดีสามารถทำได้เช่นกัน เราต้องคิดและทำแตกต่างออกไป”

ล่าสุดจาก Blog