Среди роста интереса к технологиям искусственного интеллекта, всё чаще возникают случаи его неэтичного использования. Так, стало известно о проекте, проведённом учёными из Университета Цюриха. В рамках исследования они внедрили ИИ-ботов в обсуждения на Reddit, а именно в разделе Change My View, при этом ни администрация сайта, ни участники не были в курсе проводимого эксперимента.
Эксперимент прошёл без уведомления участников, что вызвало широкий общественный резонанс. После публичного раскрытия информации представители университета сообщили модераторам CMV, что в течение нескольких месяцев они вели себя как реальные пользователи, но применяли генерацию текста на основе больших языковых моделей. Хотя каждый комментарий проверялся вручную перед публикацией, сам факт тайного использования ИИ противоречит правилам сообщества, запрещающим автоматизированное участие.
После того как информация стала доступна основной площадке Reddit и её участникам, реакция превзошла все ожидания. Многие указали на потенциальный психологический вред, который могло причинить такое исследование. Даже если боты не наносили прямой моральный вред, они могли быть восприняты как живые люди, что ставит под сомнение честность научного подхода.
Хотя исследователи принесли извинения за нарушение правил, они попытались оправдать свои действия важностью темы и значением для общества. Однако специалисты в области этики, как и сами пользователи Reddit, подчеркнули, что методы воздействия на эмоциональное состояние людей должны быть чётко регламентированы и требовать согласия. Особенно это касается тех случаев, когда бот может взять на себя роль собеседника в сложных личных ситуациях.
Этот случай снова поднял вопрос о том, как AI-технологии внедряются в социальные среды. Он также демонстрирует, что даже академические круги могут игнорировать нормы конфиденциальности и взаимодействовать с людьми, не сообщая им о реальной природе собеседника.