Отслеживание движения глаз, восприятие музыки, субтитры в реальном времени и многое другое — вот лишь некоторые из новых функций, которые Apple анонсировала в преддверии Всемирного дня доступности, который состоится 16 мая 2024 года. Эти функции будут доступны на устройствах iPhone, iPad, Mac и Vision Pro позднее в этом году.
Отслеживание движения глаз позволяет пользователям управлять своими устройствами, двигая глазами, а музыкальные тактильные ощущения обеспечивают более полное погружение в звук. Также будут доступны голосовые подсказки и сигналы движения автомобиля, что упростит пользователям взаимодействие со своими устройствами.
Ожидается, что эти новые функции появятся в следующих версиях iOS, iPadOS, VisionOS и macOS. Обычно Apple представляет эти функции за несколько недель до Всемирной конференции разработчиков (WWDC), которая состоится в июне 2024 года. На этом мероприятии мы можем ожидать, что Apple продемонстрирует свои новейшие операционные системы и возможности искусственного интеллекта.
В целом, эти новые специальные возможности впечатляют и значительно улучшат работу пользователей на устройствах Apple.Отслеживание движения глаз выглядит очень впечатляюще и является отличным способом сделать iPhone и iPad еще более удобными для пользователей. Как упоминалось в пресс-релизе и показано в видеоролике, вы можете использовать eye tracking для навигации по iPadOS и iOS, открытия приложений и управления элементами с помощью одних только глаз. Он использует фронтальную камеру, искусственный интеллект и машинное обучение для обеспечения бесперебойной работы.
Вы можете посмотреть на интерфейс и использовать «Dwell Control» для взаимодействия с кнопками или элементами. Жесты также управляются движением глаз. Например, вы можете посмотреть на Safari или другое приложение и, удерживая нажатой клавишу, открыть его.
Самое главное, что все данные, собранные во время настройки и использования, хранятся локально на устройстве. Поэтому для использования eye tracking вам не нужны никакие дополнительные аксессуары. Приложение предназначено для людей с ограниченными физическими возможностями и дополняет другие доступные способы управления iPhone или iPad.Еще одна новая специальная функция, Vocal Shortcuts, предназначена для пользователей iPad и iPhone с боковым амиотрофическим склерозом (БАС), церебральным параличом, инсультом или другими приобретенными или прогрессирующими заболеваниями, влияющими на речь. Это позволяет пользователям настраивать пользовательский звук, который Siri может распознавать и использовать для запуска определенного действия или выполнения задачи.
Эта функция является дополнением к функции прослушивания нетипичной речи, которая была представлена в iOS 17 и предназначена для той же группы пользователей. Обе функции используют искусственный интеллект для распознавания и понимания различных типов речи, что упрощает пользователям общение со своими устройствами.
Эти функции являются прекрасным примером неизменной приверженности Apple инновациям в области доступности. Внедряя такие функции, как «Голосовые подсказки» и «Прослушивание нетипичной речи», Apple помогает сделать свои продукты более инклюзивными и доступными для более широкого круга пользователей. Приложение Music Haptics для iPhone разработано таким образом, чтобы обеспечить уникальные возможности прослушивания для людей с нарушениями слуха или глухотой. Встроенный тактильный движок, работающий на базе системы taptic в iPhone, создает различные вибрации, имитирующие звук музыки. Это включает в себя касания и текстуры, которые воссоздают звучание песни. На момент запуска функция будет поддерживать миллионы песен из Apple Music, а также будет доступен открытый API для разработчиков, позволяющий интегрировать музыку из других источников.
Кроме того, Apple представила несколько других функций. Сигналы о движении автомобиля для iPhone и iPad направлены на предотвращение укачивания за счет отображения анимированных точек на экране, которые меняются в зависимости от движения автомобиля. Эта функция предназначена для облегчения укачивания, не мешая пользователю видеть.Одним из важных дополнений к VisionOS — программному обеспечению, на базе которого работает Apple Vision Pro, — станут субтитры в реальном времени для всей системы. Это позволит пользователям видеть субтитры к разговорным диалогам в разговорах FaceTime и аудио из других приложений. Эта функция была разработана для глухих и слабослышащих пользователей, но она также может быть использована любым, кто хочет улучшить свой опыт.
Отображение субтитров в реальном времени в Apple Vision Pro позволяет пользователям перемещать окно с субтитрами и изменять его размер, как и в любом другом окне устройства. Специальные возможности VisionOS также будут включать в себя снижение прозрачности, интеллектуальную инверсию и функцию тусклого фонарика. Что касается того, когда эти новые функции будут доступны, Apple упомянула в пресс-релизе, что они появятся позже в этом году. Мы будем внимательно следить за этой информацией и ожидаем, что они будут выпущены со следующими версиями операционной системы, такими как iOS 18 и iPadOS 18. Это означает, что пользователи с учетной записью разработчика могут получить возможность протестировать эти функции в следующих бета-версиях.
Учитывая, что некоторые из этих функций используют машинное обучение на устройстве и искусственный интеллект для обеспечения доступности, очевидно, что Apple видит потенциал ИИ в том, чтобы оказать значительное влияние в этой области. Мы можем ожидать, что технологический гигант подробнее поделится своими мыслями об искусственном интеллекте и функциях, доступных потребителям, на Всемирной конференции разработчиков в 2024 году (WWDC).