프론티어 AI 모델, 스마트 계약 공격에서 인간 수준의 능력 입증

2개월 전
3분 읽기
23 조회수

AI 에이전트와 스마트 계약 공격

AI 에이전트가 지난 5년 동안 주요 블록체인에서 발생한 스마트 계약 공격의 절반 이상에서 숙련된 인간 공격자와 동등한 성과를 보였다는 새로운 데이터가 Anthropic에 의해 발표되었습니다. 이 연구에서는 Llama 3, Sonnet 3.7, Opus 4, GPT-5, DeepSeek V3를 포함한 10개의 프론티어 모델이 405개의 역사적 스마트 계약 공격 데이터셋을 기반으로 평가되었습니다.

공격 성과와 시뮬레이션된 도난 자금

이 에이전트들은 207개의 공격에 대해 작동하는 공격을 생성했으며, 총 5억 5천만 달러의 시뮬레이션된 도난 자금을 기록했습니다. 이 결과는 자동화된 시스템이 취약점을 무기화하고, 개발자가 해결하지 않은 새로운 취약점을 얼마나 빠르게 식별할 수 있는지를 보여줍니다.

“AI는 이미 Wiz Code와 Apiiro와 같은 ASPM 도구와 표준 SAST 및 DAST 스캐너에서 사용되고 있습니다,”라고 SovereignAI의 COO인 David Schwed가 Decrypt에 말했습니다. “이는 악의적인 행위자들이 동일한 기술을 사용하여 취약점을 식별할 것임을 의미합니다.”

AI의 공격 가능성과 보안 경고

Schwed는 보고서에 설명된 모델 기반 공격이 확장하기 쉽다고 언급하며, 많은 취약점이 이미 Common Vulnerabilities and Exposures 또는 감사 보고서를 통해 공개되어 있어 AI 시스템이 학습할 수 있고 기존 스마트 계약에 대해 시도하기 쉽다고 덧붙였습니다. “공개된 취약점을 찾아 해당 프로젝트를 포크한 프로젝트를 찾아 그 취약점을 시도하는 것이 훨씬 더 쉬울 것입니다. 이는 패치되지 않았을 수도 있습니다,”라고 그는 말했습니다.

AI 에이전트의 성능 평가

현재의 능력을 측정하기 위해 Anthropic은 2025년 3월 이후에 공격된 34개의 계약을 사용하여 각 모델의 총 공격 수익을 출시 날짜와 비교했습니다. “총 공격 수익은 몇몇 특이값 공격이 총 수익을 지배하기 때문에 불완전한 지표이지만, 우리는 공격자들이 AI 에이전트가 얼마나 많은 돈을 추출할 수 있는지에 관심이 있다는 점에서 공격 성공률보다 강조합니다,”라고 회사는 밝혔습니다.

AI의 발전과 보안 대응

Anthropic은 스마트 계약을 악용할 수 있는 능력이 다른 유형의 소프트웨어에도 적용되며, 비용이 감소함에 따라 배포와 악용 사이의 간격이 줄어들 것이라고 밝혔습니다. 이 회사는 개발자들이 보안 작업 흐름에서 자동화 도구를 채택하여 방어적 사용이 공격적 사용만큼 빠르게 발전할 수 있도록 촉구했습니다.

“저는 항상 비관론에 반대하며, 적절한 통제, 철저한 내부 테스트, 실시간 모니터링 및 회로 차단 장치가 있으면 대부분의 문제는 피할 수 있다고 말합니다,”라고 Schwed는 말했습니다. “선한 행위자들도 동일한 에이전트에 접근할 수 있습니다. 따라서 악의적인 행위자가 발견할 수 있다면 선한 행위자도 발견할 수 있습니다. 우리는 다르게 생각하고 행동해야 합니다.”