Google: ИИ не может создавать качественные вредоносные программы

Анализ вредоносных программ, созданных ИИ, показывает, что вайб-кодинг в этих разработках не очень эффективен
7 ноября 2025, пятница 12:06
kosmos_news для раздела Блоги

Вайб-кодинг, то есть разработка программного кода и целых приложений с помощью ИИ, стал трендом в последние месяцы. Поставщики соответствующих инструментов (Cursor или Replit) обещают, что даже новички смогут создавать полноценные приложения с помощью их ПО.

Компания Google изучила пять примеров вредоносных программ, созданных с помощью генеративного ИИ. Вывод: качество вредоносных программ, разработанных ИИ, оказалось значительно ниже того, к которому привыкли эксперты по безопасности, работая с созданными людьми программами.

Одна из вредоносных программ, Promptlock, также стала предметом научного исследования. Специалисты из Инженерной школы Тандон Нью-Йоркского университета изучали, в какой степени большие языковые модели способны автономно планировать, адаптироваться и осуществлять атаки программ-вымогателей.

Вредоносное ПО, которое эксперты по безопасности ESET назвали «первым программным обеспечением-вымогателем на базе ИИ», оказалось легко обнаружить и обезвредить. По мнению авторов исследования, это отчасти связано с тем, что ИИ использовал уже известные механизмы для создания Promptlock, как и для четырех других образцов вредоносных программ.

«Это показывает, что развитие таких инструментов происходит очень медленно спустя более трех лет после начала бума генеративного ИИ», — пояснил независимый исследователь безопасности Кевин Бомонт изданию Ars Technica.

В конечном счете, по мнению другого исследователя безопасности, пожелавшего остаться анонимным, это означает, что ИИ не делает вредоносное ПО более опасным, по крайней мере, пока. Он лишь помогает злоумышленникам в их работе.