Наблюдая за стремительными движениями Гепарда, бегущего по полю и перепрыгивающего через внезапно возникающие ямы и препятствия на пересеченной местности, может создаться впечатление что это легкий и вполне понятный процесс. Но заставить робота двигаться таким образом совсем нетривиальная задача.
За последние годы четвероногие роботы, вдохновленные движениями гепардов и других животных, сделали большой шаг вперед, но когда дело доходит до передвижения по ландшафту с быстрыми перепадами высот, становится понятно, что роботы сильно отстают от своих млекопитающих собратьев.
«В таких условиях необходимо использовать зрение, чтобы избежать неудачи. Например, трудно избежать попадания в яму, если вы ее не видите. Хотя существует несколько методов включения зрения в локомоцию ног, большинство из них не очень подходят для использования в новых проворных роботизированных системах», — говорит Габриэль Марголис, аспирант в лаборатории Пулкита Агравала, профессора Лаборатории компьютерных наук и искусственного интеллекта (CSAIL) Массачусетского технологического института (MIT).
Марголис и его коллеги разработали систему, которая улучшает скорость и маневренность четырехногих роботов, когда они перепрыгивают через провалы в рельефе. Новая система управления состоит из двух частей: одна обрабатывает в реальном времени данные с видеокамеры, установленной в передней части робота, а другая переводит эту информацию в инструкции для движению тела робота. Исследователи протестировали свою систему на роботе Mini Cheetah, созданном MIT профессором Сангбэ Ким.
В отличие от других методов управления четвероногими роботами, эта двухкомпонентная система не требует предварительного картирования местности. В будущем это может позволить роботам отправиться в лес для ликвидации последствий чрезвычайной ситуации или подняться по лестнице, чтобы доставить лекарства пожилому человеку.
Марголис совместно с коллегами написал статью “Learning to Jump from Pixels”. Работа будет представлена в следующем месяце на CoRL 2021 (Conference on Robot Learning).