Концепция управления телефоном без рук не является новой. Еще во время презентации Redmi Note Turbo 3 стало известно, что им можно пользоваться, не прикасаясь к экрану, а с помощью жестикуляции руками и даже глазами.
Apple планирует сделать это в iOS 18. Об этом сообщила сама компания в пресс-релизе. Функция станет частью целого набора опций для всех пользователей с физическими недостатками, подобно тому, как Стивен Хокинг управлял компьютером, через который он говорил. Разумеется, по гораздо меньшей цене, чем ученый заплатил за технологию.
По словам Apple, в дополнение к этой функции появится еще одна, известная как Music Haptics, которая специально разработана для глухих или слабослышащих людей. С ее помощью они смогут воспринимать любую музыку через тактильный движок iPhone.
Помимо Music Haptics, есть еще одна функция под названием Vocal Shortcuts, которая позволит пользователям выполнять задачи, вызывая их с помощью выбранного ими звука. Это, безусловно, интересные функции, но все внимание привлекает именно Eye Tracking.
Отслеживание движения глаз - это, что неудивительно, функция, основанная на искусственном интеллекте, с помощью которой Apple пытается утвердиться как лидер. Более того, некоторые функции уже можно протестировать, не дожидаясь предстоящей WWDC.
Как мы уже говорили, Eye Tracking дает пользователям возможность управлять устройством, не прикасаясь к iPhone или iPad. Функция предназначена для людей с ограниченными физическими возможностями и использует фронтальную камеру, чтобы настроить функцию и откалибровать ее за несколько секунд. Затем, благодаря машинному обучению, которое происходит локально, все данные, используемые для управления функцией, хранятся в зашифрованном виде на устройстве и не передаются никому (даже самой Apple).
Приятным моментом для пользователей является то, что для работы Eye Tracking не требуется никакого дополнительного оборудования. Фактически, по словам производителя, пользователи смогут выполнять те же функции глазами, что и руками, касаясь экрана.