Швейцарские инженеры разработали систему, позволяющую управлять дроном с помощью движений тела и видеть изображение с его камеры в шлеме виртуальной реальности. Испытания системы показали, что неподготовленные пользователи быстро привыкают к системе и управляют дроном точнее, чем помощью обычного контроллера, рассказывают разработчики в журнале Proceedings of the National Academy of Sciences.
Практически всегда управление дроном или роботом происходит с помощью операторского пульта с несколькими кнопками или джойстиками. К примеру, пульты управления дронами, как правило, оборудованы двумя стиками, один из которых отвечает за перемещение по высоте и повороты, а другой за перемещение в горизонтальной плоскости. Поскольку это сильно отличается от естественных человеческих движений при ходьбе, к такому управлению приходится долго привыкать. Некоторые инженеры пытались решить эту проблему с помощью альтернативных устройств, например, специальной перчатки и контроллера с виброотдачей, реагирующих на наклоны руки, но такие способы управления все равно недостаточно интуитивны.
Группа инженеров из Швейцарии и Италии под руководством Сильвестро Мичеры (Silvestro Micera) из Федеральной политехнической школы Лозанны разработала систему, позволяющая использовать для управления дроном только движения тела. Поскольку цель работы заключалась в создании максимально удобной для пользователей схемы управления, сначала инженеры решили выяснить, какие движения люди считают наиболее естественными для управления летательным аппаратом.
Во время эксперимента 17 участникам с надетым шлемом виртуальной реальности показывали компьютерную симуляцию полета дрона и просили повторить маневры дрона (полет вперед, повороты и изменения высоты) с помощью подходящих по их мнению движений тела. В это время исследователи считывали показания датчиков мышечных сокращений на верхней части тела, а также отслеживали положения частей тела и смещение центра масс с помощью визуальных маркеров на теле и камер вокруг испытуемых.
Оказалось, что практически все участники исследования придерживались одной из двух схем управления: одна группа «управляла» дроном только с помощью поворотов корпуса, а вторая не только поворачивала корпус, но и активно наклоняла руки в ту или иную сторону. Несмотря на то, что часть добровольцев выбрала другие способы управления, например, один из них пытался грести руками в направлении движения, исследователи в дальнейшем сконцентрировались именно на двух наиболее популярных схемах.
После выявления оптимальных способов управления инженеры проверили их на деле. В первом тестировании добровольцы управляли дроном в виртуальном мире и должны были пролетать через контрольные точки, используя одну из двух схем управления. Авторы сравнивали эффективность управления с помощью тела с результатами предыдущего исследования, в котором применялась аналогичная виртуальная среда и квадрокоптер, а управление производилось с помощью обычного операторского пульта и симулятора полета птицы Birdly.
Выяснилось, что способ управления с помощью отклонений корпуса без активного участия рук оказался эффективнее, чем аналогичный способ с участием рук или управление с пульта оператора, а также сравним с управлением с помощью Birdly. Во время последнего эксперимента исследователи проверили переносимость навыка управления корпусом на реальный мир и проверили его на настоящем квадрокоптере. Оказалось, что пользователям комфортно управлять таким образом и пролетать через кольца-контрольные точки, а эффективность пролета оказалось высокой — 87,67 ± 9,88%.
Швейцарские инженеры — далеко не первые, кто пытается упростить управление мультикоптерами. В 2016 году южнокорейская компания This is engineering представила контроллер для дронов, позволяющий управлять дроном с помощью одной руки. Он состоит из основной части контроллера и кольца, перемещая которое можно задавать движение дрона. А один из крупнейших производителей дронов DJI в 2016 году представил складной квадрокоптер Mavic, который, помимо необычной конструкции, отличается от аналогов умением распознавать простые жесты пользователя и реагировать на них соответствующим образом, к примеру, делать снимок на камеру.
Григорий Копиев
И реагировать на них движениями
Американские инженеры связали на автоматическом станке свитеры для роботов, которые помогают ощущать прикосновения с помощью вшитых датчиков нажима. Свитеры пригодятся, чтобы управлять движениями роботов на производстве. Работа доступна на arXiv.org. Для работы на производстве с людьми, роботам нужно быть очень осторожными, чтобы случайно не травмировать человека. Есть разные способы сделать роботов безопасными, например прикреплять к ним мягкие подушки. Другая идея — научить роботов быстро определять контакт и отодвигаться от человека. В отличие от людей, у роботов нет кожи, но для них можно сделать другую систему для распознавания ощущений из жестких или эластичных материалов, или даже одежду из текстиля, если встроить в нее датчики прикосновений. Одежду можно быстро изготавливать на ткацком станке в промышленных масштабах, и надевать на роботов разных форм и размеров. Группа инженеров из Университета Карнеги под руководством Джеймса МакКанна (James McCann) и Ян Вэньчжэня (Yuan Wenzhen) создала свитеры для роботов, которые могут надежно определять прикосновения. По словам авторов, обычно у текстильных сенсоров есть проблема: они быстро деформируются и перестают надежно работать. Исследователи попробовали с этим справиться, связав свитеры из трех слоев пряжи. Верхний и нижний слой сделаны из обычного нейлона, на котором чередуются широкие и узкие полосы. Широкие полосы сотканы из полиэстеровой металлизированной пряжи, которая хорошо проводит электричество, а узкие полосы изолятора сделаны из акрила. Средний слой — это сетка из района (искусственного шелка). Чем она тоньше, тем выше чувствительность свитера к легким прикосновениям, и наоборот — плотный средний слой подходит для сильных нажатий. Слои ткани с помощью пуговиц с проводами соединяются с устройством для считывания сопротивления, и вместе с ним превращаются в электронную схему. Когда кто-то дотрагивается до свитера, верхний и нижний слои ткани соприкасаются через отверстия в районовой сетке, и сопротивление в системе уменьшается. По сопротивлению можно определить силу нажатия. Инженеры протестировали, насколько надежно устройство определяет силу и место контакта со свитером. Первая серия экспериментов проверяла, как эффективность сенсоров меняется со временем. Эксперименты включали 42 секунды контакта с сенсорами по 20-30 раз на протяжении 4 дней. Авторы не приводят точные цифры результатов, но утверждают что сенсоры показывали стабильные результаты по определению места контакта все 4 дня, с небольшими погрешностями в конце эксперимента. Также исследователи протестировали точность сенсоров на плоской и изогнутой поверхности. На плоской поверхности по сопротивлению датчиков можно было точно определить силу нажатия. На изогнутой поверхности корреляция между сопротивлением и силой нажатия сохранилась, но выросло ее стандартное отклонение. Таким образом, сложность поверхности негативно повлияла на точность определения нажатия. Наконец, инженеры проверили эффективность чувствительных свитеров на роботах. Они надели свитер на робота Kuri, который должен был повернуть голову в ответ на прикосновение. В будущем технологию RobotSweater можно использовать, чтобы обучать роботов: например, похлопать по плечу в качестве похвалы. Пока инженеры показали, как свитеры могут пригодиться на производстве: например, промышленный робот в свитере останавливается и меняет направление движения в ответ на прикосновения. https://www.youtube.com/watch?v=YGUV1dHuCRc Прикосновения может определять не только одежда для роботов, но и искусственная кожа, которую разработала группа ученых из Стэнфордского университета. Пока кожу испытали на крысах, но авторы планируют в будущем встроить ее в человеческие протезы, чтобы улучшить их чувствительность.