Представители компаний OpenAI и Microsoft поделились информацией о том, что качество атак хакеров повысилось вследствие использования искусственного интеллекта. Согласно заявлению, размещенном на онлайн-ресурсе Microsoft, группы мошенников из России, КНДР, КНР и Ирана тестируют нейросети и оценивают их полезность для себя.
Группа хакеров из Северной Кореи, Thallium, применила технологии языковых моделей в своей работе. Объединение из Ирана, Curium, пользовалась ChatGPT и другими программами для того, чтобы создать программный код. Более того, нейросети помогали злоумышленникам написать фишинговые письма.
Представители обеих компаний заявили, что разрушительных последствий атак хакеров пока нет. Специалисты из OpenAI заверили, что в случае, если пользователя системы заподозрят в создании программ, приносящих вред, его доступ к ChatGPT будет заблокирован. В свою очередь, специалисты из Microsoft рассказали, что у мошенников есть все возможности улучшить свои нападения с помощью искусственного интеллекта.
Российские специалисты несколько ранее заявили, что злоумышленники начали использовать программы в недобросовестных целях и создавать собственные аналоги ChatGPT для улучшенной организации атак.

