Google продемонстрировала новые функции своего AI-ассистента Gemini

Компания добавила возможность считывать информацию с экрана смартфона, используя при этом голосовые команды, а также обрабатывать и анализировать видео с камеры.
3 марта 2025, понедельник 19:23
Zelikman для раздела Блоги

На мероприятии Mobile World Congress 2025 в Барселоне корпорация Google представила ряд обновлений для своего AI-ассистента Gemini. Новая функция Screenshare даёт возможность транслировать экран смартфона помощнику и задавать ему вопросы, опираясь на видимое содержание.

Google продемонстрировала функциональность через видеоролик, где пользователь делится своим экраном с Gemini и просит предложить варианты стильных комбинаций, основываясь на изображении джинсов, найденных на веб-сайте. Хотя Google Lens уже умеет распознавать объекты на экране, интеграция этой возможности с голосовым AI-помощником, способным поддерживать естественный диалог, выводит функцию на новый уровень.

Это приближает Gemini к возможностям ChatGPT, который поддерживает различные типы данных, включая изображения и видео. ChatGPT также способен анализировать видеопотоки в реальном времени в расширенном голосовом режиме. Но Google решила сделать рывок и в этом направлении.

Вторая новая функция, представленная как часть Gemini Live, даёт возможность помощнику обрабатывать и анализировать видео, поступающее в режиме реального времени с камеры смартфона.

В демонстрационном ролике показано, как пользователь активирует камеру, чтобы продемонстрировать Gemini вазу и получить рекомендации относительно цветовой гаммы.

Эти опции станут доступны всем оформившим подписку на план Google One AI Premium. Этот план также включает доступ к Gemini Advanced и 2 ТБ дискового пространства в облаке.