Американские инженеры создали алгоритм для роботизированных манипуляторов, позволяющий им захватывать незнакомые предметы, самостоятельно изучая их форму с разных сторон. Алгоритм может принимать команды, привязанные к любым объектам определенного класса, к примеру, захватывать разные модели ботинок за язычок, рассказывают разработчики в статье, опубликованной на arXiv.org.
Создание роботов, умеющих захватывать и перемещать различные предметы — одна из наиболее востребованных задач в робототехнике, которая может пригодиться при создании полностью автоматизированных складов. Некоторые компании, такие как Amazon, даже проводят конкурсы по созданию хватающих роботов. Хотя достаточно ловкие роботы, способные захватывать определенные или произвольные предметы, уже существуют, многие из них обладают серьезными недостатками. Как правило, такие алгоритмы не позволяют указать точку захвата на объекте, а тем более, для всех объектов определенного типа.
Группа из Массачусетского технологического института под руководством Расса Тедрейка (Russ Tedrake) создала для робоманипуляторов новый алгоритм, лишенный многих недостатков, присущих другим аналогичным разработкам. Как и многие такие разработки, он создает 3D-модель предметов в поле зрения, однако исследователи выбрали необычное представление этой модели.
Изначально алгоритм получает изображения с камеры глубины, в которых каждому пикселю присвоены значения трех основных цветов и величина глубины. После этого он переводит это изображение в пространство визуальных дескрипторов. Во время этого превращения каждому пикселю присваивается вектор, который по сути является идентификатором точки в пространстве, свет из которой проецируется на пиксель. Благодаря такому кодированию, алгоритм может легко находить корреляцию между изображением, на котором пользователь указал нужную ему точку, и моделью, созданной алгоритмом, несмотря на изменение освещения, перспективы и других факторов.
Особенность примененного исследователями подхода заключается в том, что обучение алгоритма созданию визуальных дескрипторов происходит без учителя — то есть без использования созданного разработчиками набора размеченных данных для обучения. Вместо этого робот самостоятельно собирает изображения с разных ракурсов и даже может самостоятельно поворачивать объект, чтобы рассмотреть его со всех сторон.
Система работает так: сначала пользователь указывает мышкой на фотографии предмета точку, в которой робот должен его схватить. После этого робот осматривает предмет с трех ракурсов, с помощью обученного ранее алгоритма подбирает на изображениях со своей камеры точку на предмете, наиболее похожую на ту, которую указал пользователь на фотографии, и хватает предмет за эту точку.
Главным результатом работы стало то, что созданный алгоритм можно применять разными способами. К примеру, он может создавать классоустойчивое представление предметов, при котором он получает исходную фотографию конкретного предмета с указанной пользователем точкой захвата, но может распознавать аналогичные точки на других объектах этого же класса. Алгоритму можно дать задание схватить за язычок конкретный ботинок, но он сможет сделать то же самое, если перед ним лежат ботинки с другими формой, цветом и остальными характеристиками. Тем не менее, алгоритм можно обучить «запоминать» конкретный объект. В таком случае он будет распознавать этот предмет даже среди нескольких предметов такого же класса, к примеру, кружек разного размера и цвета.
Разработчики опубликовали исходный код алгоритма и подробные инструкции по его развертыванию и обучению на GitHub, а в будущем планируют также опубликовать уже обученные модели.
Недавно заметного успеха в области алгоритмов для захвата предметов достигли инженеры из Австралии. Они создали алгоритм, который самостоятельно находит оптимальную точку захвата для произвольного и незнакомого ему предмета, причем он может захватывать даже двигающиеся объекты. Испытания на двигающихся бытовых предметах, таких как кружка или отвертка, показали, что алгоритм может успешно справляться с задачей в 88 процентах случаев.
Григорий Копиев
Его система управления автоматически находит оптимальные точки в воздушных потоках
Инженеры разработали алгоритм управления для беспилотников самолетного типа, который позволяет парить на восходящих воздушных потоках, расходуя в 150 раз меньше энергии, чем при активном полете с работающим двигателем. Алгоритм отслеживает и подстраивается под непрерывно изменяющиеся воздушные потоки, сохраняя высоту. Препринт доступен на arXiv.org. При поддержке Angie — первого российского веб-сервера Беспилотники самолетного типа более энергоэффективны, чем мультикоптеры. Благодаря крыльям они способны преодолевать большие дистанции и могут гораздо дольше находиться в воздухе. Причем эти параметры могут быть увеличены за счет парения — планирующего полета, в котором аппарат использует восходящие воздушные потоки для удержания в воздухе без использования тяги двигателей, аналогично тому, как это делают некоторые птицы. Группа инженеров под руководством Гвидо де Круна (Guido de Croon) из Делфтского технического университета разработала систему управления, которая позволяет беспилотникам самолетного типа без какой-либо предварительной информации о поле ветра самостоятельно находить оптимальные точки в восходящих воздушных потоках и использовать их для длительного парения с минимальным расходом энергии. В системе управления вместо обычного ПИД-регулятора используется метод инкрементальной нелинейной динамической инверсии, контролирующий угловое ускорение, подстраивая его под желаемые значения. Система управления может без изменения настроек работать и в режиме парения, и при полете с включенным двигателем во время поиска новых оптимальных точек в воздушных потоках или для компенсации резких порывов ветра. Для поиска оптимальных точек в поле ветра, в которых скорость снижения полностью компенсируется восходящим потоком воздуха, применяется алгоритм имитации отжига. Он случайно выбирает направления в пространстве пытаясь найти такую точку, в которой беспилотник может устойчиво лететь с минимально возможной тягой двигателя. Для тестов инженеры построили 3D-печатный прототип на основе модели радиоуправляемого самолета Eclipson model C. Он имеет размах крыла 1100 миллиметров и массу 716 грамм вместе с аккумуляторной батареей. В качестве полетного контроллера применяется Pixhawk 4. Помимо установленного под крылом и откалиброванного в аэродинамической трубе сенсора скорости, беспилотник имеет GPS-модуль для отслеживания положения во время полетов на открытом воздухе. В помещении применяется оптическая система Optitrack. Испытания проводились в аэродинамической трубе, возле которой установили наклонную рампу, для создания восходящего воздушного потока. Прототип запускали в воздушном потоке сначала на ручном управлении, после чего включали автопилот. Разработчики провели эксперименты двух типов. В первом они постепенно изменяли скорость воздушного потока от 8,5 до 9,8 метров в секунду при фиксированном угле наклона рампы. Во втором эксперименте скорость воздушного потока оставалась неизменной, зато менялся угол установки подиума. В обоих случаях алгоритм системы управления быстро находил в поле ветра точки, в которых мог поддерживать планирующий полет в течение более чем 25 минут, лишь изредка задействуя тягу двигателя в среднем лишь на 0,25 процента от максимальной, хотя при таких значениях воздушного потока для поддержания обычного полета требуется около 38 процентов. При изменении поля ветра из-за изменившегося угла наклона рампы или скорости воздушного потока алгоритм успешно находил и удерживал новое положение равновесия. В будущем инженеры планируют провести испытания на открытом воздухе. https://www.youtube.com/watch?v=b_YLoinHepo Американские инженеры и планетологи предложили использовать планер, способный длительное время держаться в воздухе за счет восходящих потоков и термиков, для изучения каньонов Марса. Предполагается, что такие аппараты с надувными разворачиваемыми крыльями могут стартовать с аэростата или дирижабля и затем планировать в атмосфере Марса от 20 минут до суток.