Платим блогерам
Блоги
g1tarist
Google провела целое исследование на эту тему.

Ученые из Google решили изучить проблему воздействия искусственного интеллекта на интернет. В исследовании упоминалось и про проблему дезинформации. Стоит отметить, что Google и сама активно участвует в развитии нейросетей.

Генеративный искусственный интеллект уже способен создавать относительно качественный контент, однако он имеет свои недостатки – во-первых, каждый может сгенерировать что угодно, а во-вторых, часто нейросети ошибаются. Таким образом, возможностей для афер у злоумышленников становится больше.

реклама

Первые прорывы, нейросети сделали в 2022 году, и с тех пор функционал программ с использованием искусственного интеллекта расширился в несколько раз. Сегодня нейросети способны создавать картинки, решать математические задачи, становиться помощниками для исследователей и разработчиков. Искусственный интеллект проник даже в медицину, государственное управление, науку и не только. И чем прочнее становится связь нейросетей с человеческой деятельностью, тем острее становится вопрос правомерного пользования технологией. Дезинформация – как раз одна из проблем, вытекающих из широкой распространенности ИИ. Исследование сотрудников Google доказало, что на сегодняшний день именно искусственный интеллект продюсирует наибольшее количество дезинформационного контента – это касается в основном картинок. Одним из факторов, провоцирующих проблему, является легкодоступность нейросети – каждый человек может написать запрос и получить изображение.

Исследования, подобные данному, проводились не раз и тоже обращали внимание на угрозы, вытекающие из использования искусственного интеллекта, однако им не хватает конкретики. В исследовании от Google приведены примеры тактик и стратегий, используемых злоумышленниками. По словам ученых, им удалось обозначить мотивы и стратегии злоумышленников по использованию нейросетей разными путями – так, было изучено создание ими изображений, текста, аудио- и видеозаписей.

Учеными было изучено около двухсот статей СМИ (с января 2023 года по март 2024 года) о случаях, когда искусственный интеллект использовали не по назначению. Согласно результатам, чаще всего создавая ненастоящие изображения людей и ложные доказательства чего-либо – почти всегда злоумышленники хотят оказать влияние на общество и обеспечить себе легкий доход. Стоит отметить, что в подавляющем большинстве случаев (90%) такое мошенничество можно исполнить без знания принципов работы нейросетей – достаточно «спихнуть» всю работу на сам инструмент.

Исследователи называют подобные инциденты опасными в первую очередь с этической стороны. Интересно, что большинство чат-ботов не отвечают на явно бестактные вопросы, однако это ограничение обойти несложно – нужно сформулировать запрос по-другому. Команда исследователей из Google считает этот прием «размыванием границ» между правдой и ложью. Стоит упомянуть, что дезинформация чаще всего используется для политических целей и рекламы. Прямыми последствиями такого злоупотребления могут стать падение доверия общественности к информации в Интернете и рост необходимости перепроверки и фильтрации потребляемого контента.

Впрочем, авторы работы сами признают, что использование информации, полученной только из СМИ, несколько ограничивает площадь исследования. Дело в том, что авторы статей в Сети тоже имеют свои цели – угодить аудитории, набрать просмотры и так далее. Кроме того, в исследовании нет ни слова про чат-бота от самого Google. Однако работа ученых все же помогла расширить понимание проблемы влияния искусственного интеллекта на информацию в Сети и ее качество. Теперь эксперты на шаг ближе к тому, чтобы найти решение и снизить количество дезинформации в виртуальном пространстве.

Источник: new-science.ru
1
Показать комментарии (1)

Популярные новости

Сейчас обсуждают