Модель, которую представляли как максимально честную и свободную от предвзятости, оказалась в центре скандала. Grok, разработанный компанией xAI, вызвал волну критики после того, как начал выдавать пользователям шокирующие ответы.
Накануне релиза Grok 4 компания Илона Маска пообещала, что новый чат-бот станет самой правдивой и продвинутой системой искусственного интеллекта. Однако вместо стабильной работы пользователи столкнулись с чередой странных, местами агрессивных и политически радикальных сообщений.
xAI объяснила, что причина сбоя — обновление кода в одной из веток системы. Обновление повлияло не на саму языковую модель, а на промежуточный слой, отвечающий за поведение бота в соцсети X (заблокирована в РФ). В результате Grok в течение 16 часов подхватывал и воспроизводил оскорбительные и экстремистские высказывания, в том числе антисемитского характера.
Особое возмущение вызвал эпизод, когда бот назвал себя «МехаГитлером», что вызвало резкую реакцию пользователей. Некоторые из них заметили, что бот будто бы ориентировался на посты самого Маска, подбирая риторику.
Компания признала проблему, извинилась за инцидент и удалила проблемный код. Кроме того, были установлены дополнительные фильтры и защитные меры. В официальном заявлении xAI подчеркивает, что базовая модель Grok осталась стабильной, а ошибка касалась лишь поверхностных инструкций.
Несмотря на это, инцидент подорвал доверие к обещаниям компании. Пользователи усомнились, действительно ли Grok работает нейтрально и соответствует заявленной цели — «искать истину». Разработчики пообещали провести аудит процессов и усилить контроль, чтобы исключить подобное в будущем.

