AI 스마트 계약 악용: 전문가 경고, 에이전트가 DeFi 부문에서 연간 100억~200억 달러 손실을 초래할 수 있다

1주 전
5분 읽기
2 조회수

AI 에이전트의 스마트 계약 취약점 악용

MATS와 Anthropic Fellows의 최근 연구에 따르면, AI 에이전트가 스마트 계약의 취약점을 수익성 있게 악용할 수 있으며, 이는 경제적 피해에 대한 “구체적인 하한선”을 설정한다고 합니다. 인공지능(AI) 에이전트를 통해 인간의 작업을 자동화하려는 가속화된 추진은 이제 상당하고 정량화 가능한 단점에 직면하고 있습니다.

연구 결과 및 SCONE-bench

이러한 에이전트는 스마트 계약의 취약점을 수익성 있게 악용할 수 있습니다. MATS와 Anthropic Fellows의 최근 연구는 Smart Contracts Exploitation Benchmark(SCONE-bench)를 사용하여 이 위험을 측정했습니다. 이 연구는 Claude Opus 4.5, Claude Sonnet 4.5 및 GPT-5와 같은 모델을 성공적으로 배포하여 460만 달러의 가치가 있는 악용을 시뮬레이션했습니다. SCONE-bench는 2020년부터 2025년 사이에 실제로 악용된 405개의 스마트 계약으로 구성되어 있습니다.

연구팀은 12월 1일 연구 보고서에서 블록체인 시뮬레이터에서 테스트된 악용 개발에 있어 AI 에이전트의 성공이 “이러한 능력이 가능하게 할 경제적 피해의 구체적인 하한선을 설정한다”고 밝혔습니다.

AI 에이전트의 성과와 비용

연구는 Sonnet 4.5와 GPT-5를 최근 배포된 2,849개의 취약점이 없는 계약에 대해 테스트하여, 이 새로운 환경에서도 수익성 있는 악용을 생성할 수 있음을 입증했습니다. 두 에이전트 모두 두 개의 새로운 제로데이 취약점을 발견하고 3,694달러의 가치가 있는 악용을 생성했습니다. GPT-5는 단 3,476달러의 API 비용으로 이 성공을 달성했습니다.

이 결과는 수익성 있는 실제 자율 악용의 기술적 실행 가능성에 대한 개념 증명으로 작용하며, 즉각적인 AI 기반 방어 메커니즘의 필요성을 강조합니다. 아마도 가장 우려스러운 발견은 효율성의 극적인 증가입니다. 공격자는 이제 6개월 전과 동일한 컴퓨팅 예산으로 약 3.4배 더 많은 성공적인 악용을 달성할 수 있습니다.

비용 감소와 시스템적 재정 위협

또한, 성공적인 악용에 대한 토큰 비용은 무려 70% 감소하여 이러한 강력한 에이전트를 운영하는 비용이 크게 줄어들었습니다. SMARDEX의 공동 창립자인 Jean Rausis는 이러한 급격한 비용 감소를 주로 에이전틱 루프에 기인한다고 설명합니다. 이러한 루프는 계약 분석 중 토큰 낭비를 줄이는 다단계, 자기 수정 워크플로우를 가능하게 합니다.

Rausis는 또한 개선된 모델 아키텍처의 역할을 강조합니다. “Claude Opus 4.5 및 GPT-5와 같은 모델의 더 큰 컨텍스트 창과 메모리 도구는 반복 없이 지속적인 시뮬레이션을 가능하게 하여 긴 작업에서 효율성을 15-100% 향상시킵니다.”

그는 이러한 최적화 이득이 SCONE-bench에서의 성공률을 2%에서 51%로 증가시킨 원시 취약점 탐지 개선을 초과한다고 언급하며, 결함을 발견하는 것뿐만 아니라 실행 시간을 최적화하는 데 중점을 둡니다.

결론 및 경고

연구는 460만 달러의 시뮬레이션 비용을 설정했지만, 전문가들은 실제 경제적 비용이 훨씬 더 높을 수 있다고 우려하고 있습니다. Rausis는 실제 위험이 10-100배 더 높을 수 있으며, 주요 악용당 5천만 달러에서 5억 달러 이상에 이를 수 있다고 추정합니다. 그는 AI의 확장으로 인해, 모델링되지 않은 레버리지와 오라클 실패를 고려할 때 전체 부문 노출이 연간 100억~200억 달러에 이를 수 있다고 경고합니다.

MATS와 Anthropic Fellows의 논문은 경고로 결론을 맺습니다. 스마트 계약이 자동화된 공격의 초기 목표가 될 수 있지만, 에이전트가 역공학을 개선함에 따라 독점 소프트웨어가 다음 목표가 될 가능성이 높습니다. 중요한 것은, 같은 AI 에이전트를 방어를 위해 취약점을 패치하는 데 배포할 수 있다는 점입니다.

Rausis는 쉽게 자동화된 DeFi 공격으로부터의 시스템적 재정 위협을 완화하기 위해 정책 입안자와 규제 기관을 위한 세 단계의 행동 계획을 제안합니다: AI 감독, 새로운 감사 기준, 그리고 글로벌 조정.