Группа ученых из Цюрихского университета провела спорный эксперимент на платформе Reddit, используя ИИ-ботов для попытки изменить мнения пользователей. Методы исследования вызвали волну критики и юридические угрозы со стороны администрации сайта.

Исследование проводилось на сабреддите r/changemyview, где почти 4 миллиона пользователей обсуждают спорные темы. Ученые создали несколько ИИ-ботов, которые оставили более 1700 комментариев под различными образами, включая жертву насилия, консультанта по домашнему насилию и противника движения Black Lives Matter. Дополнительный бот анализировал профили пользователей, чтобы адаптировать аргументы для максимальной убедительности.
Результаты показали, что ИИ-боты превзошли людей в способности менять мнения. Согласно данным исследования, автоматизированные ответы оказались в 3-6 раз эффективнее человеческих в получении наград за "изменение взглядов" - специальной функции Reddit. При этом пользователи ни разу не заподозрили, что общаются с ботами.
Когда исследователи сообщили о своем эксперименте модераторам форума, реакция оказалась резко негативной. Модераторы заявили, что подобные действия неприемлемы, даже если они проводятся в научных целях. Главный юрист Reddit Бен Ли назвал эксперимент "глубоко неправильным" как с моральной, так и с юридической точки зрения, нарушающим пользовательское соглашение и правила сайта.
В ответ на критику Цюрихский университет заявил, что не будет публиковать результаты исследования. В будущем этический комитет университета планирует применять более строгие проверки для подобных научных проектов, включая обязательное согласование с онлайн-сообществами.
Этот случай поднимает важные вопросы о границах научных исследований в цифровую эпоху. С одной стороны, исследование продемонстрировало растущую способность ИИ влиять на человеческие мнения. С другой – показало, насколько легко можно нарушить этические нормы при проведении исследований в интернете без должного информирования участников.
Параллельно развиваются и технологические аспекты: недавние исследования показывают, что современные языковые модели уже способны в 73% случаев успешно имитировать человека в тесте Тьюринга. Это вызывает опасения по поводу потенциального вытеснения человеческого контента автоматизированными системами, что некоторые называют теорией "мертвого интернета".
Скандал подчеркивает необходимость разработки четких этических стандартов для исследований с использованием ИИ в социальных сетях. Ученым предстоит найти баланс между научным прогрессом и правами пользователей цифровых платформ.

