Платим блогерам
Блоги
Drakostaarn_blog
Это позволит ему знать, что происходит на экране смартфона.

Google представила новые функции искусственного интеллекта под названием Gemini Live для своего ассистента Gemini на выставке Mobile World Congress (MWC) в Барселоне. Речь идёт о функции анализа видео в реальном времени с помощью ИИ, а также о демонстрации экрана, которая позволит ИИ разобраться, что хочет пользователь.

Может быть интересно

Компания сообщила, что подписчики тарифа Google One AI Premium для Gemini Advanced получат доступ этим возможностям уже в марте.

Благодаря этим возможностям пользователи смогут делиться визуальным контентом с ИИ-ассистентом в режиме реального времени. Анализ видео позволит передавать изображения с камеры, а демонстрация экрана — делиться интерфейсом смартфона, чтобы получать комментарии по отображаемому контенту.

На первых порах новые функции будут доступны только на устройствах с Android и поддерживать несколько языков. На MWC Google продемонстрировала интеграцию этих возможностей на устройствах партнёров под управлением Android. О сроках появления этих возможностей на iOS пока что ничего не сообщается

При этом Google ставит перед собой цель в 2025 году реализовать Project Astra — универсальный мультимодальный ИИ-ассистент, способный в режиме реального времени обрабатывать текст, видео и аудиоданные, а также сохранять контекст беседы до десяти минут. Отмечается, что Astra также сможет использовать Google Search, Lens и Maps.

Пока неизвестно, планирует ли Google выпускать Astra как отдельный продукт или же его функции постепенно будут интегрированы в Gemini.

Отметим, что расширенный голосовой режим нейросети ChatGPT уже поддерживает анализ видео и демонстрацию экрана с декабря прошлого года. 

Источник: the-decoder.com
+
Написать комментарий (0)
Теперь в новом формате

Наш Telegram-канал @overclockers_news
Подписывайся, чтобы быть в курсе всех новостей!

Популярные новости

Сейчас обсуждают