Компания Magic Leap опубликовала третью видеозапись, демонстрирующую работу технологии дополненной реальности собственной разработки. Двухминутный ролик доступен для просмотра на YouTube.
Новый ролик показывает возможные элементы интерфейса будущей операционной системы для дополненной реальности. В поле зрения показывается работа с несколькими графиками, слева от которых виден прогноз погоды и панель с уведомлениями различных мессенджеров и электронной почты. Через некоторое время главный герой ролика, снятого от первого лица, проигрывает файл с историей подъема на Эверест, полученный от «дочки» по имени Мерфи Купер (отсылка к кинофильму «Интерстеллар»), а также заказывает обувь в онлайн-магазине. Заканчивается ролик проплывающими над головой пользователя медузами.
В нижней части экрана на протяжении всей продолжительности видео находится надпись, объясняющая, что все происходящее снято непосредственно при помощи AR-технологии Magic Leap и единственным добавленным элементом в видеоряд является сама надпись. Как отмечает портал Engadget, технология AR-очков Mirosoft Hololens на демонстрационных роликах тоже выглядела лучше, чем на практике — изображение накладывается только на небольшую часть поля зрения пользователя.
Это уже третье короткое превью возможностей AR-технологий Magic Leap, предыдущие ролики компания опубликовала в 2015 году — в них демонстрировалась игра в дополненной реальности и отдельные анимированные сцены. Детально о проектах компании почти ничего не известно, однако в июне Magic Leap предложила разработчикам оставить свои контакты для получения SDK. Также известно, что Magic Leap намерена создать «операционную систему для дополненной реальности».
Он нажимает на кнопки сенсорных терминалов самообслуживания вместо пользователя
Инженеры разработали прототип устройства, которое помогает слабовидящим пользователям взаимодействовать с сенсорными экранами терминалов и торговых автоматов. Небольшой вращающийся вокруг своей оси робот под названием Toucha11y с камерой и выдвижным стилусом прикрепляется к экрану и распознает интерфейс, после чего передает информацию на смартфон пользователя. В результате пользователь, используя встроенные функции помощи смартфона выбирает нужные команды, а робот нажимает за него на соответствующие элементы интерфейса. Доклад представлен на конференции Conference on Human Factors in Computing Systems 2023. Многие торговые автоматы, терминалы самообслуживания и банкоматы сегодня оснащены сенсорными экранами. При этом они крайне редко оснащены голосовым управлением, что становится серьезным препятствием для слепых и слабовидящих — зачастую они не в состоянии воспользоваться устройствами без посторонней помощи. Инженеры из Мэрилендского университета во главе с Хуай Шу Пэном (Huaishu Peng) предложили способ решения этой проблемы в виде мобильного приложения и работающего с ним в паре небольшого робота под названием Toucha11y, который прикрепляется к экрану терминала. Робот массой 160 грамм оснащен тремя присосками для прикрепления к экрану терминала. Корпус может поворачиваться вокруг своей оси с помощью электромотора, а в верхней части размещена камера, наклоненная на 45 градусов вниз. Одноплатный компьютер Raspberry Pi Zero внутри отвечает за работу механики и за связь с сервером, на котором производятся вычисления. Чтобы начать работу с Toucha11y, пользователь закрепляет его на тачскрине терминала. После чего гаджет с помощью камеры делает три последовательных снимка с разницей 30 градусов. Эти фотографии загружаются на сервер, где происходит распознавание интерфейса с помощью алгоритмов компьютерного зрения и сравнение с предварительно размеченными данными из базы, в которой собрана информация о наиболее часто встречающихся интерфейсах терминалов разных производителей. Исходя из этого определяются координаты робота относительно экрана интерфейса. Далее алгоритм на сервере формирует соответствующее меню и отсылает его на мобильное приложение пользователя, которое может озвучивать информацию, доступную на экране, и принимать команды от пользователя. После выбора пункта меню пользователем робот сам нажимает на соответствующую кнопку на экране с помощью выдвижного стилуса. Он представляет собой токопроводящий указатель, закрепленный на стальной рулетке. Рулетка выдвигается на нужную дистанцию из нижней части робота с помощью электромотора, и когда ее конец с указателем оказывается над нужным элементом интерфейса, он активируется с помощью электрического импульса. Таким образом, робот отвечает за физическое взаимодействие с экраном, в то время как пользователь взаимодействует со своим персональным устройством, которое уже содержит необходимые инструменты для помощи слабовидящим. https://www.youtube.com/watch?v=dqfhE42zB1I Для тестирования концепции и дизайна прототипа разработчики пригласили семь слабовидящих испытуемых. Используя робота, они должны были выполнить задание — заказать через интерфейс терминала самообслуживания определенный напиток с дополнительной опцией в виде заданного уровня сахара. Все участники исследования успешно справились с заданием со средним временем около 90 секунд. Из существующих проблем устройства, авторы доклада отмечают перекрытие нужных пунктов меню основанием робота и привязанность к базе данных. Первая проблема может быть решена простым изменением позиции робота или разработкой основания, которое могло бы взаимодействовать с сенсорным экраном. Вторая решается регулярным обновлением базы данных актуальными интерфейсами, либо использованием установленной на большей высоте дополнительной камеры, захватывающей весь экран. В отличие от установленных в общественных местах терминалов, возможностей для взаимодействия с персональными гаджетами у слепых и слабовидящих пользователей гораздо больше. Например, в 2020 году компания Google представила встроенную экранную клавиатуру TalkBack с брайлевым шрифтом для устройств для операционных систем Android.