Платим блогерам
Блоги
Global_Chronicles
Боты оказались в 3-6 раз убедительнее людей

Группа ученых из Цюрихского университета провела спорный эксперимент на платформе Reddit, используя ИИ-ботов для попытки изменить мнения пользователей. Методы исследования вызвали волну критики и юридические угрозы со стороны администрации сайта.

Может быть интересно

Исследование проводилось на сабреддите r/changemyview, где почти 4 миллиона пользователей обсуждают спорные темы. Ученые создали несколько ИИ-ботов, которые оставили более 1700 комментариев под различными образами, включая жертву насилия, консультанта по домашнему насилию и противника движения Black Lives Matter. Дополнительный бот анализировал профили пользователей, чтобы адаптировать аргументы для максимальной убедительности.

Результаты показали, что ИИ-боты превзошли людей в способности менять мнения. Согласно данным исследования, автоматизированные ответы оказались в 3-6 раз эффективнее человеческих в получении наград за "изменение взглядов" - специальной функции Reddit. При этом пользователи ни разу не заподозрили, что общаются с ботами.

Когда исследователи сообщили о своем эксперименте модераторам форума, реакция оказалась резко негативной. Модераторы заявили, что подобные действия неприемлемы, даже если они проводятся в научных целях. Главный юрист Reddit Бен Ли назвал эксперимент "глубоко неправильным" как с моральной, так и с юридической точки зрения, нарушающим пользовательское соглашение и правила сайта.

В ответ на критику Цюрихский университет заявил, что не будет публиковать результаты исследования. В будущем этический комитет университета планирует применять более строгие проверки для подобных научных проектов, включая обязательное согласование с онлайн-сообществами.

Этот случай поднимает важные вопросы о границах научных исследований в цифровую эпоху. С одной стороны, исследование продемонстрировало растущую способность ИИ влиять на человеческие мнения. С другой – показало, насколько легко можно нарушить этические нормы при проведении исследований в интернете без должного информирования участников.

Параллельно развиваются и технологические аспекты: недавние исследования показывают, что современные языковые модели уже способны в 73% случаев успешно имитировать человека в тесте Тьюринга. Это вызывает опасения по поводу потенциального вытеснения человеческого контента автоматизированными системами, что некоторые называют теорией "мертвого интернета".

Скандал подчеркивает необходимость разработки четких этических стандартов для исследований с использованием ИИ в социальных сетях. Ученым предстоит найти баланс между научным прогрессом и правами пользователей цифровых платформ.

+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают