Гуманоидный робот Atlas от Boston Dynamics научился одновременно ходить и хватать предметы, используя всего одну модель искусственного интеллекта. Раньше роботы использовали отдельные модели для передвижения и манипуляций с объектами, но новый подход объединил эти функции в единую систему.
Разработанная совместно с Toyota Research Institute большая поведенческая модель (LBM) обучается на визуальных данных, проприоцептивной информации и языковых командах. Самое интересное — робот демонстрирует эмерджентное поведение: когда Atlas роняет предмет, он автоматически наклоняется, чтобы поднять его, хотя этому навыку его специально не обучали.
«Ноги для модели — это просто дополнительные руки», — объясняет Расс Тедрейк из Toyota Research Institute и MIT, возглавивший исследование. При захвате предметов из контейнера робот естественно перемещает ноги для сохранения равновесия, как это делает человек. Соруководителем проекта выступил Скотт Киндерсма, вице-президент по робототехническим исследованиям Boston Dynamics.
Исследователи надеются повторить успех больших языковых моделей в робототехнике. Подобно тому, как LLM неожиданно научились программировать после обучения на текстовых данных, роботы могут развить удивительные навыки при масштабировании данных. Лаборатория Тедрейка уже экспериментирует с роботами-манипуляторами, которые нарезают овощи и убирают рассыпанные кофейные зерна.
Оценка прогресса в робототехнике усложнилась из-за впечатляющих видео коммерческих гуманоидов, выполняющих сложные задачи. Однако многие демонстрации либо телеуправляемы, либо тщательно запрограммированы для одной конкретной задачи. Работа с Atlas представляет значительный шаг к созданию универсальных роботов, способных работать в различных условиях без обширного переобучения.
Источник новости и обложки: www.wired.com