Компания Google сообщила о попытках кражи данных из своей модели искусственного интеллекта. Для этого была задействована схема массовых запросов, чтобы собрать информацию для создания более дешевых аналогов.
В ходе одной из атак модель получила свыше 100 000 запросов на разных языках. По словам специалистов, такие действия квалифицируются как «извлечение моделей» и рассматриваются как кража интеллектуальной собственности. Атаки поступали из разных стран, а основными виновниками называют частные компании и исследователей, стремящихся получить конкурентное преимущество.
Метод, который использовали злоумышленники, известен в отрасли как «дистилляция» (distillation). Он позволяет обучать новые модели на основе ответов уже существующих систем. Для этого достаточно подать на вход тысячи запросов, собрать ответы и использовать их для обучения меньшей и менее затратной модели. Такой подход экономит время и ресурсы по сравнению с созданием модели с нуля.

Изображение - ChatGPT
Компания заявила, что усилила защиту Gemini от подобных атак, однако конкретные меры не уточняются.
В компании подчеркнули, что злоумышленников прежде всего интересуют алгоритмы, отвечающие за логическое мышление и обработку информации, и именно эти компоненты становятся основной целью дистилляционных атак.

