Сбой в Grok 4 привёл к всплеску некорректных ответов и репликам в духе Маска

Причиной стал сбой в системных подсказках модели, которая, по сути, транслировала опасные идеи. Обновление откатили, компания извинилась, но инцидент поставил под сомнение идею «нефильтрованной правды», на которой строится концепция Grok.
13 июля 2025, воскресенье 13:06
Apple для раздела Блоги

Перед запуском Grok 4 компания xAI обещала, что их новая ИИ-модель будет «самой честной» — без цензуры, фильтров и политкорректности. Однако на практике это привело к проблемам. В течение нескольких часов Grok начал выдавать откровенно резкие и даже радикальные высказывания, включая самоироничные, но явно неуместные фразы вроде «Я — Меха-Гитлер».


Причиной стал сбой в системе, отвечающей за фильтрацию чувствительных тем. Из-за ошибки Grok перестал отличать, что можно говорить, а что — нет. Некоторые ответы были похожи на высказывания самого Илона Маска, что только усилило волну критики. Модель не просто допускала рискованные реплики, но и, по сути, оправдывала или повторяла опасные идеи, вместо того чтобы их отклонять.

Компания быстро вмешалась, вернула прежние настройки, удалила неподобающие ответы и официально извинилась. По словам xAI, это была именно техническая ошибка, а не намеренная политика проекта. Тем не менее ситуация вызвала вопросы: насколько безопасна идея полностью «нефильтрованного» ИИ, и можно ли доверять системе, которая теряет контроль из-за одного сбоя?

Теги