Google потвърди първия известен случай на експлойт от типа zero-day или „нулев ден“, разработен с помощта на изкуствен интелект.
Групата за разузнаване на заплахи на компанията GTIG публикува доклада си AI Threat Tracker на 11 май 2026 г., в който подробно се описва как известна група за киберпрестъпност е използвала модел на изкуствен интелект, за да открие и превърне в оръжие уязвимост в популярна уеб администраторска програма с отворен код. Уязвимостта е заобикаляла двуфакторната автентификация. Google работи с засегнатия доставчик за отстраняването ѝ и счита, че намесата ѝ може да е осуетила планираната от групата масова експлоатационна кампания, преди тя да бъде стартирана.
GTIG заяви, че е силно убедена, че скриптът за експлоатация на Python е написан от модел на изкуствен интелект, а не от човешки изследовател. Кодът е това, което го издаде. Той съдържа изобилие от образователни docstrings, халюцинирана оценка за сериозност по CVSS, подробни менюта за помощ и чист, структуриран стил на форматиране, характерен за данните за обучение на големи езикови модели. Това не са неща, които човек, пишейки инструмент за атака, би включил. Самата уязвимост беше семантична логическа грешка – разработчикът беше вградил твърдо предположение за доверие в потока на удостоверяване, създавайки противоречие с логиката за налагане на 2FA, което традиционните скенери за сигурност пропуснаха, но което изкуственият интелект очевидно забеляза, като прочете намерението на разработчика, а не просто анализира кода механично. Според доклада нито моделите Gemini на Google, нито Mythos на Anthropic са били използвани от атакуващите.
Нападателите бяха планирали мащабна кампания за злоупотреба, насочена към инструмента с отворен код, като използват експлойт, генериран от изкуствен интелект. Проактивните действия на GTIG за предотвратяване на разкриването изглежда са осуетили този план, преди той да набере скорост. Вероятно са повлияли и грешки в реализацията на експлойта. „Неудобното за всички останали е, че това все още изглежда като несъвършена начална фаза“, отбеляза The Register в репортажа си. Грешките при изпълнението спасиха много потенциални жертви този път. Това обаче може да не продължи. Главният анализатор на GTIG Джон Хълтквист посочва ясно: „Има погрешно схващане, че надпреварата за уязвимости в изкуствения интелект е предстояща. Реалността е, че тя вече е започнала. За всеки „нулев ден“, който можем да проследим до изкуствения интелект, вероятно има много повече все още неизвестни.“

Семантичният логически пропуск в сърцевината на експлойта сочи към нещо по-тревожно от единичен инцидент. Традиционните скенери са създадени да откриват забивания, сривове и повреда на паметта. Те не четат кода по начина, по който го пише разработчикът. LLM го правят. Те могат да съпоставят намерението с реализацията, да откриват противоречия между дизайна и изпълнението и да разкриват скрити логически грешки, които изглеждат функционално правилни за всеки автоматизиран инструмент, използван в момента. GTIG описа това като нарастваща способност, срещу която традиционните инструменти за сигурност са структурно неподготвени да се противопоставят.
Случаят с уязвимостта от типа „нулев ден“ е част от по-широка тенденция, документирана в доклада. Севернокорейската група APT45 е изпращала хиляди повтарящи се заявки към модели на изкуствен интелект, за да анализира рекурсивно уязвимости и да създаде арсенал от експлойти в мащаб, който би бил невъзможен за реализиране ръчно. Актьор, свързан с Китай, идентифициран като UNC2814, използва команди за джейлбрейк от експерт, за да подтикне Gemini да проучи уязвимости за отдалечено изпълнение на код преди удостоверяване във фърмуера на рутерите TP-Link. Руски групи използват генериран от ИИ аудиозапис, вмъкнат в легитимни новинарски кадри, за операции за влияние. Отделно от това GTIG документира Android задни вратички, които използват API повиквания на Gemini, за да навигират автономно в заразени устройства, както и семейства зловреден софтуер, подплатени с код, генериран от ИИ, специално за да объркат анализа.
През март 2026 г. престъпната група TeamPCP наруши защитата на широко използваната библиотека за ИИ активи LiteLLM като вгради крадец на удостоверения чрез отровни PyPI пакети и злонамерени pull заявки. Откраднатите AWS ключове и GitHub токени бяха монетизирани чрез партньорства за рансъмуер. Атаката беше насочена към интеграционния слой около ИИ системите, а не към самите модели, което според GTIG се превръща в стандарт. Моделите Frontier са трудни за компрометиране директно; коннекторите, обвивките и API слоевете около тях обаче не са.
Снимка: Unsplash
Виж още: Слуховете за OLED и олекотена версия на Switch 2 отново се засилиха