Специалисты Tangible Media Group из Медиа-лаборатории Массачусетского технологического института доработали алгоритмы управления стержневым столом и предложили его использовать в качестве гаптического устройства ввода-вывода. Доклад был представлен на конференции CHI 2016, с кратким описанием проекта Materiable можно ознакомиться на сайте MIT.
Новые алгоритмы управления столом позволяют поверхности реагировать на прикосновения пользователя с разными параметрами. По словам разработчиков, такой подход позволяет имитировать поверхности с разной гибкостью, эластичностью и вязкостью. Если в систему добавить проектор, выводящий изображение поверх стола, то может получиться интерактивная рабочая среда, в которой нажатие на разные участки изображения будет приводить к разным действиям. Пользователь может работать с таким гаптическим дисплеем как при помощи отдельных пальцев, так и нажимать на него кистью, локтем или даже всем телом.
Авторы проекта полагают, что подобные технологии могут пригодиться при изучении геофизики и медицины, а также могут быть использованы в качестве устройства ввода-вывода. Ранее разработчики уже демонстрировали возможность применения подобного устройства в качестве конфигурируемого интерактивного рабочего стола, а также выполняли при помощи стола различные манипуляции.
Интерактивный стол может перемещать отдельные элементы и складывать из них более сложные конструкции — например, стержневой стол может собирать и разбирать конструкции из магнитных кубиков. Также каждый отдельный стержень стола можно использовать как устройство ввода и даже собрать из нескольких стержней пульт управления поверхностью стола в режиме реального времени.
Кроме стержневого стола специалисты Tangible Media Group также предлагали расширить возможности взаимодействия пользователя с компьютером при помощи контроллера в виде робозмеи. Устройство ввода-вывода можно использовать в качестве носимого мобильного телефона, физического дисплея и тачпада, модульной платформы, линейки, а также в качестве устройства передачи физических движений от человека к человеку.
Он позволяет управлять компьютером
Исследователи из Reality Labs, исследовательского подразделения компании Meta*, разработали неинвазивный нейромышечный интерфейс в формате браслета, который декодирует электрические сигналы мышц на запястье и позволяет с их помощью управлять компьютером. Устройство способно распознавать отдельные жесты пальцев руки и отклонения кисти. С его помощью пользователи управляли курсором и вводили рукописный текст со скоростью до двадцати одного слова в минуту. В основе системы лежат универсальные нейросетевые модели, натренированные на большом массиве данных, полученных от нескольких тысяч добровольцев — это позволяет новым пользователям использовать браслет без долгой предварительной калибровки. Статья опубликована в журнале Nature.