
На конференции разработчиков I/O 2025 компания Google представила Gemma 3n — локальную модель ИИ нового поколения, способную работать прямо на смартфонах, планшетах и ноутбуках. Ее ключевая особенность — минимальные требования к ресурсам. Для запуска достаточно 2–3 ГБ памяти, при этом модель распознает и генерирует текст, изображение, аудио и видео.

Архитектура Gemma 3n основана на тех же принципах, что и у Gemini Nano, но с улучшенной производительностью. По словам менеджера проекта Гаса Мартинса, достигнуть этого удалось за счет технологии Per-Layer Embeddings (PLE), разработанной DeepMind. Она позволяет сократить нагрузку на память без потерь в точности. Хотя параметры модели занимают 5 и 8 байт, эффективность сравнима с 2- и 4-байтными конфигурациями.

Gemma 3n также ускоряет отклик на мобильных устройствах примерно в полтора раза и показывает более высокое качество генерации, чем предыдущая модель Gemma 3 4B. В тесте WMT24++ по переводу текстов на другие языки она набрала 50,1%, особенно хорошо справляясь с японским, испанским, французским, немецким и корейским.
Модель доступна через Google AI Studio прямо в браузере. Разработчики могут подключать ее к своим приложениям через платформу Google AI Edge, поддерживая функции генерации текста и изображений локально — без доступа к облаку.
Посмотреть презентационное видео вы можете на weibo.com/tv.

