Раньше искусственный интеллект в кибератаках в основном применяли для автоматизации отдельных процессов. Теперь Google зафиксировала случай, когда нейросеть использовали именно для создания опасной уязвимости.
Изображение - ChatGPT
Google сообщила, что неизвестная группа злоумышленников использовала большую языковую модель для поиска и подготовки уязвимости нулевого дня. По данным подразделения Threat Intelligence Group, атаку готовили против популярного инструмента удаленного администрирования с открытым исходным кодом.
Специалисты компании обнаружили угрозу до начала массовой атаки. Речь шла об ошибке в системе проверки доступа, которая позволяла обходить двухфакторную аутентификацию. Google не раскрыла название программы и не уточнила, какую именно языковую модель использовали злоумышленники.
При этом компания отдельно подчеркнула, что Gemini AI не участвовала в создании уязвимости. В Google считают этот случай первым подтвержденным примером использования искусственного интеллекта для подготовки уязвимости нулевого дня в реальной атаке.
В компании также отметили, что преступные группы и связанные с государствами хакеры уже используют ИИ для поиска слабых мест в программах, написания вредоносного кода и автоматизации отдельных этапов кибератак.