Microsoft продолжает внедрять Copilot в свои продукты, включая Windows 11, но параллельно фиксирует ограничения его применения. В обновленных условиях использования компания прямо предупреждает пользователей о рисках и возможных ошибках системы.
Изображение - ChatGPT
В документации указано, что Copilot относится к инструментам развлекательного характера. Компания подчеркивает: модель может работать некорректно и допускать ошибки, поэтому ее нельзя использовать как источник важных советов. Пользователь принимает на себя риски при работе с сервисом.
Такая формулировка выглядит заметно строже на фоне активного продвижения Copilot как помощника для работы и повседневных задач. Сервис уже встроили в операционную систему и предлагают как инструмент для повышения продуктивности.
Подобные ограничения встречаются и у других разработчиков ИИ. Они указывают на вероятностный характер моделей: ответы могут содержать неточности, вымышленные факты или некорректные формулировки.
При этом проблема не только в технологии. Пользователи часто воспринимают ответы ИИ как достоверные, даже когда система ошибается. На практике это уже приводило к сбоям в крупных сервисах, когда автоматизированные решения применялись без дополнительной проверки.