Google отозвала ИИ-модель Gemma после жалоб сенатора США на «галлюцинации» инструмента

Компания пояснила, этот ИИ-инструмент никогда не предназначался для потребителей или для ответов на фактические вопросы.
3 ноября 2025, понедельник 18:25
kosmos_news для раздела Блоги

Google удалила свою модель искусственного интеллекта Gemma с открытым исходным кодом с платформы AI Studio после того, как сенатор-республиканец пожаловалась на сфабрикованные уголовные обвинения, якобы выдвинутые против неё с помощью этой модели.

Google Gemma. Источник GoogleКак компания объявила в своём официальном новостном аккаунте на платформе X, она получила «сообщения о попытках не-разработчиков использовать Gemma в AI Studio». AI Studio — это платформа для разработчиков, не предназначенная для обычного использования пользователями. Сама Gemma позиционируется как семейство открытых моделей для разработчиков, имеющее варианты для медицинских приложений, программирования, а также анализа текста и изображений.

Google подчеркнула, что Gemma никогда не предназначалась как инструмент для потребителей или для ответов на фактические вопросы. Во избежание недоразумений доступ к Gemma через AI Studio больше не предоставляется. Разработчики по-прежнему могут использовать модель через API.

В конце прошлой неделе сенатор Марша Блэкберн от штата Теннесси написала генеральному директору Google Сундару Пичаи, обвинив компанию в клевете и предвзятости. ИИ-модель утверждала, что в 1987 году во время своей предвыборной кампании в Сенат штата её обвинили в неподобающих отношениях с полицейским, который заявил, что она оказывала на него давление, чтобы он выдавал ей рецептурные препараты, и что эти отношения включали в себя действия, совершаемые без согласия. Модель также предоставила в качестве доказательства список сфабрикованных новостных статей.

По словам Блэкберн, всё это неправда, даже год выборов, который на самом деле был 1998. Приведённые ссылки вели на страницы с ошибками и нерелевантные статьи. Такого обвинения никогда не было, как и упомянутого человека, и соответствующих новостных статей.

Этот инцидент выявляет хорошо известную проблему: несмотря на годы развития в области генеративного ИИ, модели по-прежнему неточны. Ложные или вводящие в заблуждение ответы, представленные как факты, остаются проблемой для отрасли. Google заявила, что по-прежнему «стремится минимизировать галлюцинации и постоянно совершенствует все модели».