Компания Anthropic провела тесты в имитированной блокчейн-среде, показав, что искусственный интеллект способен представлять реальную угрозу для безопасности смарт-контрактов. В экспериментах модели Claude Opus 4.5, Claude Sonnet 4.5 и GPT-5 взломали 17 из 34 протестированных контрактов, похитив в смоделированных средствах $4,6 млн, а также обнаружили две новые zero-day уязвимости.
В более широком бенчмарке из 405 контрактов, развернутых на Ethereum, BNB Smart Chain и Base за 2020–2025 годы, AI-агенты успешно атаковали 207 контрактов, «заработав» $550 млн в симулированной среде. Эксперты Anthropic предупреждают, что при снижении расходов на AI-атаки количество таких взломов может резко вырасти, а потенциальная прибыль для злоумышленников остаётся высокой.
Отмечается, что AI способен обнаруживать новые уязвимости, включая ошибки авторизации, незащищённые функции чтения и пропущенные проверки логики комиссий. В то же время технологии AI могут использоваться для улучшения безопасности: те же агенты могут находить и исправлять слабые места в коде. Anthropic планирует опубликовать набор данных SCONE-bench, чтобы помочь разработчикам тестировать и патчить смарт-контракты.

