Платим блогерам
Блоги
apprenticebase
Эксперимент получился интересный, но крайне неэтичный.

Учёные из Цюрихского университета оказались в центре скандала после проведения несанкционированного эксперимента на популярной онлайн-платформе Reddit. Они использовали ботов на основе искусственного интеллекта для участия в дискуссиях и влияния на мнения пользователей без их ведома и согласия, что вызвало резкую критику и серьёзные вопросы об этичности таких методов.

Может быть интересно

Эксперимент проводился в разделе Reddit под названием Change My View («Измени мой взгляд»), где пользователи представляют свои убеждения и приглашают других их оспорить. Исследователи создали ИИ-ботов, которые имитировали различные личности для взаимодействия с участниками дискуссий. Эти боты вступали в диалоги, анализируя предыдущие сообщения пользователей, чтобы подбирать убедительные и персонализированные ответы с целью изменить их точку зрения. Ни администрация Reddit, ни сами пользователи не были проинформированы об участии ИИ.

В частности, боты выдавали себя за психотерапевтов, специализирующихся на работе с травмами, или за людей, переживших физическое насилие. В некоторых случаях они также могли рассказывать истории о якобы полученном некачественном медицинском обслуживании. Использование таких крайне чувствительных и эмоционально заряженных образов стало одним из ключевых моментов, вызвавших возмущение.

После завершения эксперимента университет уведомил модераторов раздела о случившемся. Исследователи признали, что нарушили правила сообщества, запрещающие использование нераскрытых ИИ-ботов, однако оправдали свои действия «высокой общественной значимостью» изучения способности ИИ к убеждению. Такой подход вызвал ещё большее негодование, поскольку боты не только обманывали пользователей, но и использовали для этого провокационные образы, потенциально нанося психологический вред людям, считавшим, что общаются с реальными собеседниками со схожим опытом.

Модераторы Reddit резко осудили проведённое исследование, назвав его грубым этическим нарушением. Они чётки дали понять, что другие организации, например OpenAI, изучали влияние языковых моделей на людей, не прибегая к обману и эксплуатации. Пользователи, ставшие невольными участниками эксперимента, фактически оказались объектами манипуляции, на которую никогда не давали согласия.

Источник: wccftech.com
+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают