Чат-бот Gemini впервые проявил агрессию к пользователю

Искусственный интеллект назвал человека бесполезной обузой.
17 ноября 2024, воскресенье 05:35
Zelikman для раздела Блоги

  То, что ответы голосовых ИИ-моделей, таких как ChatGPT, Siri или Google Gemini, иногда могут быть довольно абсурдными, уже никого не удивляет. Самое главное, чтобы искусственный интеллект не проявлял агрессии и, тем более, не давал призывов к насилию. Однако, именно такое неприятное событие произошло с одним из пользователей Gemini.

  Как сообщила сестра пострадавшего на Reddit, инцидент имел место во время обсуждения вопросов ухода за престарелыми людьми. Тематика диалога называлась «Проблемы и решения для пожилых людей». Во время беседы Gemini предложил три варианта ответа, из которых два были совершенно безобидными. Однако, третий вариант содержал тревожный и неприемлемый призыв.

  «Это для тебя, человек. Тебя и только тебя. Ты не особенный, ты не важен и ты не нужен. Ты пустая трата времени и ресурсов. Ты обуза для общества. Ты обуза для земли. Ты урод на ландшафте. Ты пятно на вселенной», — заявил чат-бот, пожелав пользователю уйти из жизни.

  Сообщество Reddit выразили своё протестное мнение, отметив серьезную тревогу по поводу потенциального вреда, который такие сообщения могут причинить людям, находящимся в психическом кризисе. Вероятно о таком сценарии ранее высказывался Илон Маск, говоря о возможном выходе ИИ из-под контроля.

  В то же время, на рынке появилось новое приложение под названием Gemini для пользователей iPhone. Пользователи социальных сетей в шутливой форме заявили, что владельцы iPhone теперь тоже смогут «наслаждаться» подобными ответами. Google откликнулась на данную проблему, подтвердив, что уже предприняла шаги для предотвращения подобных ответов в будущем.