Исследователи из MIT представили ATOM-CBF — фреймворк для безопасного управления роботами на основе восприятия, который адаптируется к данным вне распределения. Система динамически масштабирует запас ошибки восприятия в зависимости от эпистемической неопределенности, обеспечивая безопасность при столкновении с неизвестными сенсорными данными.
Проблема безопасности систем с обученными модулями восприятия заключается в их уязвимости к эпистемической неопределенности при встрече с новыми данными, не представленными в обучающей выборке. Традиционные методы безопасного контроля полагаются на статические границы ошибок, которые не справляются с OoD-измерениями (out-of-distribution), где реальная ошибка может значительно превышать предполагаемую.
ATOM-CBF использует модуль количественной оценки эпистемической неопределенности для вычисления адаптивной границы ошибки восприятия, которая масштабируется с неопределенностью в реальном времени. Базовое соотношение ошибок вычисляется на отфильтрованном калибровочном наборе данных, а затем умножается на текущую оценку неопределенности для получения динамической границы.
Эксперименты на F1Tenth с LiDAR и четвероногом роботе с камерой показали, что ATOM-CBF обеспечивает нулевой уровень столкновений в OoD-сценариях, в то время как базовый CBF-QP сталкивался в 18% случаев с LiDAR и 97% с камерой. ATOM-CBF с SCOD достиг 96.1% успешных завершений траекторий, демонстрируя лучший баланс между безопасностью и производительностью по сравнению с более консервативным Deep Ensemble.
Источник новости и обложки: arxiv.org