Он действует полностью автономно и исправляет допущенные ошибки
Boston Dynamics опубликовала видеоролик с электрическим человекоподобным роботом Atlas. На видео робот самостоятельно перекладывает пластиковые накладки для автомобильных двигателей между контейнерами. В качестве входных данных робот получает список мест, откуда и куда необходимо переместить объекты, после чего использует модель компьютерного зрения для обнаружения и локализации в пространстве этих объектов (контейнеров и накладок). Все движения робота генерируются полностью автономно в режиме реального времени, без заранее заданной программы или дистанционного управления. Atlas оснащен комбинацией датчиков зрения, силы и проприоцепции, которые позволяют ему обнаруживать и реагировать на изменения в окружающей среде, такие как движущиеся объекты. Робот может замечать и исправлять собственные ошибки, например, останавливаться и выполнять действие повторно при неудачной попытке установить деталь.
При этом диапазон движений Atlas превышает возможности человека. Например, он поворачивает голову на недоступный для людей угол, ходит задом наперед с разворотом тазобедренного сустава на 180 градусов и одновременным поворотом торса для подготовки к следующему действию. Для взаимодействия с предметами Atlas использует трехпалые манипуляторы, один из пальцев на которых может разворачиваться на 180 градусов, становясь противопоставленным двум оставшимся для более надежного захвата. Предыдущая гидравлическая версия робота тоже использовалась для отработки операций с автозапчастями: Atlas занимался сортировкой амортизационных стоек. Однако в апреле 2024 года Boston Dynamics объявила о прекращении разработки гидравлического робота и представила полностью электрическую модель.
Двухступенчатый алгоритм управления точно имитирует движения, учитывая ограничения конструкции
Инженеры из Disney и ETH Zurich разработали метод обучения нейросетевого алгоритма для управления движениями трехмерных персонажей и роботов, который позволяет точно воспроизводить заданные движения на основе кинематических данных с учетом физики. Метод использует двухэтапный процесс обучения: сначала с помощью вариационного автоэнкодера создается внутреннее представление о базовых движениях, а затем обучается политика управления, которая использует это представление для генерации команд управления движениями. Такой подход обеспечивает реалистичное и плавное выполнение движений, адаптируясь к физическим ограничениям и используя движения, которых не было в обучающей выборке. Алгоритм успешно протестировали на виртуальном персонаже в симуляции, а также на человекоподобном роботе с 20 степенями свободы. Подробное описание метода опубликовано на сайте Disney Research.