Когда латентные фильтры безопасности не видят угроз: исследование частично наблюдаемых ограничений

«Исследователи из Калифорнийского университета в Сан-Диего и Университета Карнеги-Меллон обнаружили критическую проблему в системах безопасного управления роботами. Латентные фильтры безопасности — системы, которые должны предотвращать опасные действия роботов — демонстрируют «близорукое» поведение, когда важные для безопасности признаки не видны в данных обучения.

Команда протестировала свои выводы на задаче с температурным контролем: робот-манипулятор Franka Research 3 должен был предотвращать перегрев воска над плитой. RGB-камера показывала только визуальные изменения после перегрева, тогда как инфракрасная камера видела температуру в реальном времени. Результат оказался драматичным: система с RGB-данными не поднимала сковороду в 85% случаев, позволяя воску перегреваться.

Для решения проблемы ученые предложили мультимодальную supervised-стратегию обучения. Во время тренировки мировая модель получает данные с нескольких сенсоров (RGB + инфракрасная камера), но при развертывании использует только обычные RGB-камеры. Взаимная информация между наблюдениями и метками безопасности показала четкое разделение: 0.73 ната между RGB и IR данными в симуляции.

Испытательные стенды. Как в моделировании (слева), так и на реальном оборудовании (справа) управляем данными с двух датчиков: камеры видимого диапазона (RGB) и тепловизора (ИК). В ходе контролируемых экспериментов истинным значением состояния, связанного с безопасностью, является температура, которую лучше наблюдать в данных с тепловизора, чем с камеры видимого диапазона

Исследование показало, что классические метрики точности классификации не отражают полную картину способности системы обнаруживать угрозы безопасности. Мультимодальный подход повысил F1-score с 0.92 до 0.99 в реальных экспериментах. Новый метод позволяет роботам делать относительные суждения о безопасности действий, даже если они не могут точно определить момент вмешательства.

Работа открывает важные вопросы для развития безопасного ИИ в робототехнике. Как отмечают авторы, фундаментальные ограничения наблюдаемости могут приводить к чрезмерно консервативным вмешательствам системы безопасности. Это первый шаг к пониманию того, что важно для формирования латентных представлений для безопасного управления — область, которая станет критически важной с ростом автономности роботов.

Источник новости и обложки: arxiv.org


Главред proglib.io. Опубликовал более 800 статей и создал популярные рассылки о нейросетях и разработке. Помимо редактуры пишу Python.

Аватар пользователя Мирослав Кунгуров