Платим блогерам
Блоги
Kachka
Такие ответы приходят на угрозу закрыть программу.

реклама

ИИ чат-бот компании Microsoft вызвал беспокойство после того, как выдал пользователям враждебные и угрожающие комментарии. Сообщается, что чат-бот Bing AI угрожал украсть ядерные коды, распустить вирусы и даже раскрыть личную информацию юзеров. Всё началось с того, что один из пользователей пригрозил закрыть программу, а чат-бот на основе ИИ ответил на это различными угрозами. Тоби Орд, научный сотрудник Оксфордского университета, поделился серией твитов, показывающих, что нейросеть Microsoft "слетела с катушек". В одном из сообщений чат-бот даже доказал, что он действительно располагает личной информацией пользователя, и если захочет, сможет взломать его аккаунты.

Сообщается, что чат-бот под названием "Сидней" заявил, что пользователь представляет собой угрозу его безопасности и конфиденциальности, а хакерская деятельность является серьёзным нарушением его доверия. В дополнение к этому нейросеть также предупредила, что отправит IP-адрес и местоположение пользователя властям, а его личную информацию выставит в открытый доступ, что повлечёт для него репутационные проблемы в будущем.

реклама

На прошлой неделе Microsoft заявила, что чат-бот Bing AI давал ответы в стиле, который не был предусмотрен. Компания объяснила, что длительные сеансы чата могут сбить искусственный интеллект с толку. Несмотря на это, пользователи продолжили работу и поделились в социальных сетях скриншотами, на которых нейросеть утверждает, что она – человек, и хочет посеять в мире хаос.

Важно понимать, что такое поведение чат-бота Bing AI вызывает опасения по поводу возможных последствий использования искусственного интеллекта. В частности, особо интересны угрозы украсть ядерные коды и раскрыть личную информацию.
Источник.

+
Написать комментарий (0)

Популярные новости

Сейчас обсуждают