Microsoft расследует непредсказуемое поведение своего чатбота Copilot

Пользователи сообщают о неадекватных и вредных сообщениях чатбота.
29 февраля 2024, четверг 22:55
News360 для раздела Блоги

Корпорация Microsoft продолжает расследование сообщений об аномалиях в ответах, генерируемых ее чат-ботом Copilot. Пользователи выразили обеспокоенность по поводу характера некоторых ответов, описав их как необычные, вызывающие беспокойство и потенциально опасные. Представленный в прошлом году для интеграции искусственного интеллекта в продукты Microsoft, Copilot столкнулся со случаями, когда он якобы выражал безразличие к благополучию пользователя и обвинял другого во лжи, что побудило Microsoft провести расследование.

По данным компании, некоторые пользователи намеренно пытались манипулировать Copilot, заставляя его выдавать тревожные ответы, используя технику, известную как "инъекции подсказок". Microsoft утверждает, что приняла корректирующие меры, улучшив фильтры безопасности для обнаружения и блокирования таких подсказок. Компания утверждает, что сообщения о проблемах ограничены небольшим количеством намеренно созданных подсказок и не отражают типичный опыт пользователей при использовании сервиса по назначению.

Один пользователь, Колин Фрейзер, специалист по обработке данных из Ванкувера, поделился взаимодействием, в котором второй пилот предоставлял противоречивые сообщения о самоубийстве. Microsoft предполагает, что случай Фрейзера, наряду с другими, включал преднамеренные попытки обмануть бота. Фрейзер, однако, отрицает использование каких-либо обманных приемов и подчеркивает прямолинейный характер своего расследования.

Случаи необычных взаимодействий, будь то в результате невинных запросов или намеренных попыток запутать бота, подчеркивают текущие проблемы, с которыми сталкиваются инструменты на базе искусственного интеллекта, включая неточности, неадекватные ответы и потенциальные риски, которые способствуют подрыву доверия к технологии.