Нейросети обучили баскетбольным движениям

CMUComputerScience / YouTube
Американские разработчики создали виртуального агента, умеющего выполнять базовые баскетбольные движения и некоторые трюки. В основе агента лежат две нейросети, отвечающие за планирование перемещения и движений рук, соответственно. Во время обучения нейросети получали записи движений реальных людей и за множество обучающих циклов алгоритмы смогли перенять навыки спортсменов. Посвященная разработке статья будет представлена на конференции SIGGRAPH 2018.
В современных анимированных фильмах и играх, как правило, применяются персонажи с заранее заданным набором базовых движений, которые либо выполняются в исходном виде, либо могут немного подстраиваться под конкретный эпизод. Кроме того, в них используется сильно упрощенная физическая модель. Из-за этого во многих моментах движения персонажей и объектов не соответствуют аналогичным движениям в реальном мире.
В качестве альтернативы некоторые исследователи в области компьютерной анимации и машинного обучения предлагают использовать алгоритмы для виртуальных персонажей, способные обучаться выполнению того или иного движения и благодаря этому действовать максимально реалистично. Обычно для этой задачи используется метод обучения с подкреплением, при котором виртуальный агент находится в среде, от которой он получает награду за правильные действия. По мере обучения управляющий агентом алгоритм постепенно учится выполнять такую последовательность действий, которая приводит его к наибольшей награде, а значит, наиболее близка к нужному разработчикам навыку.
Либинь Лю (Libin Liu) из компании DeepMotion и Джессика Ходжинс (Jessica Hodgins) из Университета Карнеги — Меллона использовали в своей работе такой же подход. Исследователи разбили задачу на две части, обучение также проходило в два этапа. Одна из созданных нейросетей-планировщиков движений отвечает за передвижение агента, а вторая — за движение его рук и управление мячом. Сначала агент учился в виртуальной среде передвижению, а после этого его задачей было обучение контролю мяча при выполнении сложных движений, таких как пробрасывание мяча себе между ног без потери контроля над ним.
Результат работы обученных алгоритмов можно увидеть в опубликованном авторами ролике:
В будущем авторы планируют продолжить работу над созданием спортивных виртуальных агентов и расширить подход на виды спорта, в которых игровые движения сильно влияют на баланс персонажа, к примеру, на футбол, в котором мяч необходимо бить ногами.
Другая группа ученых также представит на конференции SIGGRAPH 2018 алгоритм для виртуальных агентов, выполняющих сложные движения. В частности, авторам удалось обучить алгоритм бейсбольным броскам и приемам из боевых единоборств.
Григорий Копиев