Ученые из Федеральной политехнической школы Лозанны (Швейцария) представили конечный результат своего многолетнего проекта по созданию дистанционно управляемого подвижного робота, командовать которым можно с помощью «силы мысли». Описание всех разработанных проектов опубликовано в специальном выпуске Proceedings of the IEEE, посвященного нейроинтерфейсам (мозг-компьютер).
В экспериментах и тестировании роботов участвовали 19 добровольцев – 10 здоровых людей и 9 полностью парализованных. В течение нескольких недель ученые анализировали их электроэнцефалограмму, событийно-связанные потенциалы мозга и электромиограмму. Все полученные сырые данные переводились в форму, понятную компьютеру.
В основном ученые использовали сенсомоторный Мю-ритм – аркообразные волны, регистрируемые в спокойном состоянии в зонах мозга отвечающих за движение и сенсорные ощущения, связанные с телом. Известно, что в случае активации моторной коры, амплитуда Мю-ритма падает, причем, даже если само действие не совершается, а только представляется. Этот феномен можно отследить и научить компьютер распознавать его, что дает возможность управлять чем-либо, представляя мысленно какие-либо движения.
Второй использованный показатель – Р300. Это поздний компонент событийно-связанных потенциалов, возникающий, например, когда необходимо принять решение при выборе того или иного действия в сложной сенсомоторной реакции (Предположим, у нас появляется одна синяя вспышка на десять красных, с разной вероятностью. Нажимать на кнопку нужно только при синей – в этом случае в ответ на каждую вспышку будет формироваться вызванный потенциал, а его поздний компонент Р300 будет отображать принятие решений испытуемым).
Однако наиболее новаторским стало разделение управления между человеком и компьютером. Робот использует собственные сенсоры для обхода и преодоления препятствий, отдавая человеку возможность принимать «генеральные» решения, типа поворота в ту и или иную сторону, входа в помещение и т.д.
После анализа ЭЭГ, ССП и ЭМГ, с применение к ним алгоритмов машинного обучения, требовалась еще примерно 10 дней тренировки пользователей. После чего они могли управлять двумя модификациями робота.
Первая модификация состоит из самоходной тележки с монитором и видеокамерой. Пациент может видеть с помощью камеры, куда направляется робот, и кто ему встречается. Благодаря программе Skype все могут видеть лицо пациента на мониторе и разговаривать с ним. Вторая модификация представляет собой самоходную инвалидную коляску, управляемую «силой мысли», чтобы не перегружать пациента, она также снабжена датчиками и сонарами, позволяющими роботу самостоятельно избегать столкновений.
Обе модификации потенциально могут вывести парализованных людей на совершенно новый уровень независимости и самообслуживания. Подвижный робот позволит прикованным к постели людям гулять и общаться с другими, не выходя из дома, а коляска – уже самостоятельно перемещаться.
В 2012 году ученым удалось создать управляемую с помощью мысленных команд робо-руку, при помощи которой парализованная пациентка научилась себя кормить и поить. В том же году французская команда продемонстрировала усовершенствованную версию ASIMO, которой тоже можно было управлять дистанционно. А в далеком 1988 году Фарвелл и Дончин применили Р300 для создания первой «виртуальной клавиатуры», которая стала важнейшим прототипом и провозвестником всех будущих нейроинтерфейсов.
В настоящий момент швейцарская группа работает над переводом своих разработок в автономный, мобильный, независимый от лаборатории режим; созданием нейротрансплантов и экзоскелетов, которые позволят совершать парализованным людям действия руками под управлением мозга, но без участия мышц.