Google Threat Intelligence Group iдентифiкувала перший задокументований випадок, коли зловмисники застосували штучний iнтелект для розробки zero-day-експлойту. Атака обходить двофакторну автентифiкацiю у популярному веб-iнструментi адмiнiстрування систем. Цей тип захисту широко використовується для безпеки крипто-акаунтiв i гаманцiв, у тому числi тих, що зберiгають Bitcoin, USDT та iншi активи.
Google виявила атаку, якої ранiше не iснувало
У вiвторковому звiтi Threat Intelligence Group (TIG) Google повiдомила про виявлення спiльної операцiї кiберзлочинцiв для масштабного використання вразливостей. Компанiя охарактеризувала це як першу задокументовану атаку, де AI слугував iнструментом розробки zero-day-коду.
Метою став популярний вiдкритий веб-iнструмент адмiнiстрування систем. Назву продукту Google не розкрила. Вразливiсть дозволяла обiйти другий фактор автентифiкацiї пiсля того, як хакери вже мали дiйснi облiковi данi жертви.
Пiдтвердженням участi AI у розробцi стали двi деталi в кодi. По-перше, у ньому виявлено галюцинацiю, характерну для великих мовних моделей. По-друге, структура та формат коду вiдповiдають стилю, типовому для тренувальних даних AI. Google заявила, що з "високою впевненiстю" вважає: атаку пiдготували за допомогою фронтирної LLM.
Компанiя спостерiгала, як зловмисники "об'єднали зусилля для планування масштабної операцiї з експлуатацiї вразливостей". Деталi щодо кiлькостi постраждалих систем i масштабу атаки у звiтi не наводяться.
Не помилка коду, а логiчна вада вищого рiвня
Дослiдники пояснюють, чому саме AI виявив цю вразливiсть. Знайдений дефект є не класичною помилкою реалiзацiї на кшталт пошкодження пам'ятi. Google описує його як "семантичну логiчну ваду вищого рiвня". Розробник початкового продукту жорстко закодував хибне припущення про довiру до певних запитiв.
Саме цей клас проблем LLM знаходять краще за традицiйнi iнструменти аналiзу коду. Великi мовнi моделi ефективно виявляють "жорстко закодованi статичнi аномалiї" i логiчнi вади у бiзнес-логiцi, якi важче пiдхопити автоматизованими сканерами.
Вразливiсть цього типу потребує розумiння контексту та намiру коду, а не лише синтаксичного аналiзу. Це пояснює, чому саме LLM виявився ефективним iнструментом для атаки, якою людина-хакер мiг би знехтувати або не помiтити.
Китай i КНДР в авангардi AI-кiбератак
Google не назвала конкретного суб'єкта атаки. Проте у звiтi зазначено, що Китай i Пiвнiчна Корея "продемонстрували значний iнтерес до використання AI для виявлення вразливостей". Цi двi держави Threat Intelligence Group видiлила як найбiльш активних у цьому напрямку.
Для кiберпiдроздiлiв КНДР це не новий вектор. Пiвнiчнокорейськi хакери роками атакують криптовалютнi бiржi та бриджi. Додавання AI-iнструментiв для розвiдки вразливостей суттєво пiдвищує їхнi можливостi без змiни основної тактики.
Кiлька сiмей шкiдливого ПЗ (PROMPTFLUX, HONESTCUE та CANFAIL) вже мiстять LLM-компоненти. Зловмисники використовують їх для генерацiї коду-заповнювача та "наживки", яка маскує шкiдливу логiку вiд антивiрусних систем.
LLM-атаки набувають промислового масштабу
Google попереджає: доступ до LLM серед зловмисникiв стає "iндустрiальним". Хакери будують автоматизованi конвеєри для ротацiї преміум-акаунтiв AI-сервiсiв, пулiнгу API-ключiв та обходу обмежень безпеки. Значну частину цих операцiй фiнансують за рахунок зловживання безкоштовними пробними акаунтами.
Зловмисники дедалi частiше атакують не самi мовнi моделi, а компоненти, що надають їм корисностi. Пiд прицiлом автономнi навички AI-агентiв i стороннi конектори даних. Проривних можливостей для обходу базового захисту самих фронтирних моделей зловмисники поки не досягли, констатує Google.
Компанiя зробила висновок: у мiру того як органiзацiї продовжують iнтегрувати LLM у виробничi середовища, AI-програмне забезпечення перетворюється на прiоритетну цiль для атак. Iнтегрованi компоненти, якi надають AI-системам їхню корисну функцiональнiсть, стають вразливим мiсцем нової цифрової iнфраструктури.




Коментарі
Ваша e-mail адреса не оприлюднюватиметься. Обов'язкові поля позначені *