Команда экспертов Withsecure опубликовала исследование, согласно которому, продвинутые чат-боты на основе нейросетей, подобные ChatGPT, могут активно и успешно использоваться различного рода злоумышленниками, в первую очередь, мошенниками с целью фишинга, но не только. Например, с помощью чат-бота можно массово генерировать ложные истории компаний и фейковые отзывы, а также уникальную с точки зрения поисковиков мошенническую рекламу.
Помимо всего прочего, исследователи протестировали возможности ChatGPT в области создания фейковых новостей по горячим темам, например, таким, как «специальная военная операция», «экономический кризис» или «Северный поток» – чат-бот успешно справился с задачей. Также эксперты подчеркнули, что уже в ближайшем будущем мы можем увидеть массу сгенерированных нейросетями текстов, созданных с целью разрушения репутации того или иного бренда. Вероятно, мир вступает в эпоху новых маркетинговых войн, когда количество создаваемого компаниями контента многократно вырастет за весьма короткий промежуток времени, причем контент этот нередко будет публиковаться от лица анонимов или несуществующих людей, с целью очернения конкурентов и получения над ними преимущества.