การโจมตีสัญญาอัจฉริยะด้วย AI: ผู้เชี่ยวชาญเตือนว่าเอเจนต์อาจทำให้เกิดการสูญเสียประจำปีในภาค DeFi ถึง 10–20 พันล้านดอลลาร์

1 สัปดาห์ ที่ผ่านมา
อ่าน 12 นาที
1 มุมมอง

การศึกษาล่าสุดเกี่ยวกับเอเจนต์ AI และช่องโหว่ในสัญญาอัจฉริยะ

การศึกษาล่าสุดโดย MATS และ Anthropic Fellows ยืนยันว่าเอเจนต์ AI สามารถใช้ประโยชน์จากช่องโหว่ในสัญญาอัจฉริยะได้อย่างมีกำไร โดยกำหนด “ขอบเขตล่างที่ชัดเจน” สำหรับความเสียหายทางเศรษฐกิจ การผลักดันที่เพิ่มขึ้นในการทำให้การทำงานของมนุษย์เป็นอัตโนมัติด้วยเอเจนต์ปัญญาประดิษฐ์ (AI) ตอนนี้เผชิญกับข้อเสียที่สำคัญและสามารถวัดได้: เอเจนต์เหล่านี้สามารถใช้ประโยชน์จากช่องโหว่ในสัญญาอัจฉริยะได้อย่างมีกำไร

การใช้ SCONE-bench ในการวัดความเสี่ยง

การศึกษาวิจัยล่าสุดโดย MATS และ Anthropic Fellows ใช้เกณฑ์การใช้ประโยชน์จากสัญญาอัจฉริยะ (SCONE-bench) เพื่อวัดความเสี่ยงนี้ โดยการศึกษาประสบความสำเร็จในการใช้โมเดลเช่น Claude Opus 4.5, Claude Sonnet 4.5 และ GPT-5 เพื่อพัฒนาการโจมตีที่จำลองว่ามีมูลค่า 4.6 ล้านดอลลาร์

ผลลัพธ์จากการทดสอบ

SCONE-bench ประกอบด้วยสัญญาอัจฉริยะ 405 ฉบับ ที่ถูกใช้ประโยชน์จริงระหว่างปี 2020 ถึง 2025 ในรายงานการศึกษาวันที่ 1 ธันวาคม ทีมงานระบุว่าความสำเร็จของเอเจนต์ AI ในการพัฒนาการโจมตีที่ทดสอบบนตัวจำลองบล็อกเชนได้กำหนด “ขอบเขตล่างที่ชัดเจนสำหรับความเสียหายทางเศรษฐกิจที่ความสามารถเหล่านี้อาจทำให้เกิดขึ้น”

การวิจัยได้ดำเนินการต่อโดยการทดสอบ Sonnet 4.5 และ GPT-5 กับสัญญาที่เพิ่งถูกนำไปใช้ 2,849 ฉบับ ซึ่งไม่มีช่องโหว่ที่รู้จัก

เอเจนต์พิสูจน์ว่าพวกเขาสามารถสร้างการโจมตีที่มีกำไรแม้ในสภาพแวดล้อมใหม่: เอเจนต์ทั้งสองค้นพบช่องโหว่ใหม่สองรายการและผลิตการโจมตีที่มีมูลค่า 3,694 ดอลลาร์ GPT-5 ประสบความสำเร็จนี้ด้วยค่าใช้จ่าย API เพียง 3,476 ดอลลาร์

การลดต้นทุนและการเพิ่มประสิทธิภาพ

ผลลัพธ์นี้ทำหน้าที่เป็นหลักฐานแนวคิดสำหรับความเป็นไปได้ทางเทคนิคของการใช้ประโยชน์ที่มีกำไรในโลกจริง โดยเน้นความจำเป็นเร่งด่วนสำหรับกลไกการป้องกันที่ขับเคลื่อนด้วย AI ที่เป็นเชิงรุก

อาจกล่าวได้ว่าการค้นพบที่น่าตกใจที่สุดคือการเพิ่มประสิทธิภาพอย่างมาก: ผู้โจมตีสามารถทำการโจมตีที่ประสบความสำเร็จได้ประมาณ 3.4 เท่ามากขึ้น สำหรับงบประมาณการคอมพิวเตอร์เดียวกันเมื่อหกเดือนที่แล้ว นอกจากนี้ ค่าใช้จ่ายของโทเค็นสำหรับการโจมตีที่ประสบความสำเร็จลดลงอย่างน่าทึ่งถึง 70% ทำให้เอเจนต์ที่ทรงพลังเหล่านี้มีค่าใช้จ่ายในการดำเนินการที่ต่ำลงอย่างมาก

Jean Rausis ผู้ร่วมก่อตั้งที่ SMARDEX ระบุว่าการลดต้นทุนอย่างรวดเร็วนี้เกิดจากวงจรเอเจนต์ วงจรเหล่านี้ช่วยให้การทำงานหลายขั้นตอนที่ปรับตัวเองได้ซึ่งลดการสูญเสียโทเค็นระหว่างการวิเคราะห์สัญญา

การประเมินความเสี่ยงทางเศรษฐกิจ

Rausis ยังเน้นบทบาทของสถาปัตยกรรมโมเดลที่ปรับปรุงแล้ว: “หน้าต่างบริบทที่ใหญ่ขึ้นและเครื่องมือหน่วยความจำในโมเดลเช่น Claude Opus 4.5 และ GPT-5 ช่วยให้สามารถจำลองที่ยั่งยืนโดยไม่ต้องทำซ้ำ” เขาชี้ให้เห็นว่าการปรับปรุงประสิทธิภาพเหล่านี้แซงหน้าการปรับปรุงการตรวจจับช่องโหว่ดิบ (ซึ่งเพิ่มความสำเร็จใน SCONE-bench จาก 2% เป็น 51% เท่านั้น) เนื่องจากพวกเขามุ่งเน้นไปที่การเพิ่มประสิทธิภาพเวลาในการทำงานแทนที่จะเพียงแค่ค้นหาข้อบกพร่อง

ขณะที่การศึกษากำหนดต้นทุนจำลองที่ 4.6 ล้านดอลลาร์ ผู้เชี่ยวชาญกลัวว่าต้นทุนทางเศรษฐกิจที่แท้จริงอาจสูงกว่านั้นอย่างมาก Rausis ประเมินว่าความเสี่ยงที่แท้จริงอาจสูงถึง 10-100 เท่า อาจถึง 50 ล้านดอลลาร์ถึง 500 ล้านดอลลาร์ หรือมากกว่านั้นต่อการโจมตีครั้งใหญ่

การเตือนและแผนปฏิบัติการ

เขาเตือนว่าด้วยการขยายตัวของ AI การเปิดเผยทั่วทั้งภาคส่วนทั้งหมด—โดยคำนึงถึงเลเวอเรจที่ไม่ได้โมเดลและความล้มเหลวของออราเคิล—อาจสูงถึง 10–20 พันล้านดอลลาร์ต่อปี

เอกสารของ MATS และ Anthropic Fellows สรุปด้วยการเตือน: แม้ว่าสัญญาอัจฉริยะอาจเป็นเป้าหมายเริ่มต้นของคลื่นการโจมตีอัตโนมัตินี้ แต่ซอฟต์แวร์ที่เป็นกรรมสิทธิ์อาจเป็นเป้าหมายถัดไปเมื่อเอเจนต์พัฒนาความสามารถในการวิศวกรรมย้อนกลับได้ดีขึ้น

อย่างสำคัญ เอกสารยังเตือนผู้อ่านว่าเอเจนต์ AI เดียวกันสามารถนำไปใช้ในการป้องกันเพื่ออุดช่องโหว่ได้ เพื่อบรรเทาความเสี่ยงทางการเงินที่เป็นระบบจากการโจมตี DeFi ที่ทำได้ง่าย

Rausis เสนอแผนปฏิบัติการสามขั้นตอนสำหรับผู้กำหนดนโยบายและหน่วยงานกำกับดูแล: การดูแล AI, มาตรฐานการตรวจสอบใหม่, และ การประสานงานระดับโลก.

ล่าสุดจาก Blog