Язык
Быстрый доступ
Информация
Мобильные приложения
Загрузить в App StoreДоступно в Google Play
Мы в социальных сетях
Хакеры впервые использовали AI для разработки zero-day и обхода 2FA
Безопасность

Хакеры впервые использовали AI для разработки zero-day и обхода 2FA

12 мая 2026 г.3 мин чтения

Google Threat Intelligence Group идентифицировала первый задокументированный случай, когда злоумышленники применили искусственный интеллект для разработки zero-day-эксплойта. Атака обходит двухфакторную аутентификацию в популярном веб-инструменте администрирования систем. Этот тип защиты широко используется для безопасности крипто-аккаунтов и кошельков, в том числе хранящих Bitcoin, USDT и другие активы.

Google выявила атаку, которой прежде не существовало

В опубликованном во вторник отчете Threat Intelligence Group (TIG) Google сообщила об обнаружении совместной операции киберпреступников для масштабного использования уязвимостей. Компания охарактеризовала это как первую задокументированную атаку, где AI послужил инструментом разработки zero-day-кода.

Целью стал популярный открытый веб-инструмент администрирования систем. Название продукта Google не раскрыла. Уязвимость позволяла обойти второй фактор аутентификации после того, как хакеры уже получили действующие учетные данные жертвы.

Участие AI в разработке подтвердили две детали в коде. Во-первых, в нем обнаружена галлюцинация, характерная для больших языковых моделей. Во-вторых, структура и формат кода соответствуют стилю, типичному для обучающих данных AI. Google заявила, что с "высокой уверенностью" считает: атака была подготовлена с помощью фронтирной LLM.

Компания наблюдала, как злоумышленники "объединили усилия для планирования масштабной операции по эксплуатации уязвимостей". Детали относительно количества пострадавших систем и масштаба атаки в отчете не приводятся.

Не ошибка кода, а логический изъян высшего уровня

Исследователи объясняют, почему именно AI обнаружил эту уязвимость. Найденный дефект является не классической ошибкой реализации вроде повреждения памяти. Google описывает его как "семантический логический изъян высшего уровня". Разработчик исходного продукта жестко закодировал ошибочное допущение о доверии к определенным запросам.

Именно этот класс проблем LLM находят лучше традиционных инструментов анализа кода. Большие языковые модели эффективно выявляют "жестко закодированные статические аномалии" и логические изъяны в бизнес-логике, которые труднее обнаружить автоматизированными сканерами.

Google зафиксировала: AI-модель самостоятельно нашла логический изъян в коде и превратила его в рабочий эксплойт для обхода двухфакторной аутентификации.

Уязвимость этого типа требует понимания контекста и намерения кода, а не только синтаксического анализа. Это объясняет, почему именно LLM оказался эффективным инструментом для атаки, которую хакер-человек мог проигнорировать или не заметить.

Китай и КНДР в авангарде AI-кибератак

Google не назвала конкретного субъекта атаки. Однако в отчете отмечено, что Китай и Северная Корея "продемонстрировали значительный интерес к использованию AI для обнаружения уязвимостей". Эти два государства Threat Intelligence Group выделила как наиболее активных в данном направлении.

Для киберподразделений КНДР это не новый вектор. Северокорейские хакеры годами атакуют криптовалютные биржи и бриджи. Добавление AI-инструментов для разведки уязвимостей существенно повышает их возможности без изменения основной тактики.

Несколько семей вредоносного ПО (PROMPTFLUX, HONESTCUE и CANFAIL) уже содержат LLM-компоненты. Злоумышленники используют их для генерации кода-заполнителя и "наживки", маскирующей вредоносную логику от антивирусных систем.

LLM-атаки приобретают промышленный масштаб

Google предупреждает: доступ к LLM среди злоумышленников становится "индустриальным". Хакеры строят автоматизированные конвейеры для ротации премиум-аккаунтов AI-сервисов, пулинга API-ключей и обхода ограничений безопасности. Значительную часть этих операций финансируют за счет злоупотребления бесплатными пробными аккаунтами.

Злоумышленники все чаще атакуют не сами языковые модели, а компоненты, обеспечивающие их полезность. Под прицелом автономные навыки AI-агентов и сторонние коннекторы данных. Прорывных возможностей для обхода базовой защиты самих фронтирных моделей злоумышленники пока не достигли, констатирует Google.

Компания сделала вывод: по мере того как организации продолжают интегрировать LLM в производственные среды, AI-программное обеспечение превращается в приоритетную цель для атак. Интегрированные компоненты, предоставляющие AI-системам их полезную функциональность, становятся уязвимым местом новой цифровой инфраструктуры.

Поделиться:

Комментарии

Ваш e-mail адрес не будет опубликован. Обязательные поля отмечены *

или подтвердите через email