Платим блогерам
Блоги
ddr77
Университетские исследователи попали под критику за внедрение на платформу ботов в дискуссии.

Среди роста интереса к технологиям искусственного интеллекта, всё чаще возникают случаи его неэтичного использования. Так, стало известно о проекте, проведённом учёными из Университета Цюриха. В рамках исследования они внедрили ИИ-ботов в обсуждения на Reddit, а именно в разделе Change My View, при этом ни администрация сайта, ни участники не были в курсе проводимого эксперимента.


Целью работы стало изучение способности нейросетей влиять на мнение людей через специально выстроенные диалоги. Боты использовали разные образы — от советчиков по психологии до жертв насилия и пациентов с негативным опытом медицинского обслуживания. При этом анализировалась активность пользователей, их предыдущие ответы и поведение в тематических ветках. На основе этих данных формировались персонализированные реплики, способные вызвать доверие и продолжить дискуссию как человек.

Может быть интересно

Эксперимент прошёл без уведомления участников, что вызвало широкий общественный резонанс. После публичного раскрытия информации представители университета сообщили модераторам CMV, что в течение нескольких месяцев они вели себя как реальные пользователи, но применяли генерацию текста на основе больших языковых моделей. Хотя каждый комментарий проверялся вручную перед публикацией, сам факт тайного использования ИИ противоречит правилам сообщества, запрещающим автоматизированное участие.

После того как информация стала доступна основной площадке Reddit и её участникам, реакция превзошла все ожидания. Многие указали на потенциальный психологический вред, который могло причинить такое исследование. Даже если боты не наносили прямой моральный вред, они могли быть восприняты как живые люди, что ставит под сомнение честность научного подхода.

Хотя исследователи принесли извинения за нарушение правил, они попытались оправдать свои действия важностью темы и значением для общества. Однако специалисты в области этики, как и сами пользователи Reddit, подчеркнули, что методы воздействия на эмоциональное состояние людей должны быть чётко регламентированы и требовать согласия. Особенно это касается тех случаев, когда бот может взять на себя роль собеседника в сложных личных ситуациях.

Этот случай снова поднял вопрос о том, как AI-технологии внедряются в социальные среды. Он также демонстрирует, что даже академические круги могут игнорировать нормы конфиденциальности и взаимодействовать с людьми, не сообщая им о реальной природе собеседника.

+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают