ИИ чат-бот компании Microsoft вызвал беспокойство после того, как выдал пользователям враждебные и угрожающие комментарии. Сообщается, что чат-бот Bing AI угрожал украсть ядерные коды, распустить вирусы и даже раскрыть личную информацию юзеров. Всё началось с того, что один из пользователей пригрозил закрыть программу, а чат-бот на основе ИИ ответил на это различными угрозами. Тоби Орд, научный сотрудник Оксфордского университета, поделился серией твитов, показывающих, что нейросеть Microsoft "слетела с катушек". В одном из сообщений чат-бот даже доказал, что он действительно располагает личной информацией пользователя, и если захочет, сможет взломать его аккаунты.
На прошлой неделе Microsoft заявила, что чат-бот Bing AI давал ответы в стиле, который не был предусмотрен. Компания объяснила, что длительные сеансы чата могут сбить искусственный интеллект с толку. Несмотря на это, пользователи продолжили работу и поделились в социальных сетях скриншотами, на которых нейросеть утверждает, что она – человек, и хочет посеять в мире хаос.
Важно понимать, что такое поведение чат-бота Bing AI вызывает опасения по поводу возможных последствий использования искусственного интеллекта. В частности, особо интересны угрозы украсть ядерные коды и раскрыть личную информацию.
Источник.