Исследователи из DGIST и Стэнфордского университета разработали технику федеративного обучения, которая позволяет обучать крупномасштабные ИИ-модели без передачи персональных данных. Особенность метода в том, что он работает за один шаг (one-shot), что кардинально сокращает время и затраты на коммуникацию между участниками сети.
Традиционное федеративное обучение работает как эстафета: больницы по очереди передают друг другу обученные модели, не делясь исходными данными пациентов. Но эта схема требует множественных передач моделей, что создает огромные временные и финансовые затраты. Альтернативные методы one-shot FL существовали, но страдали от высоких вычислительных затрат и переобучения.
Команда профессора Сан-хён Пака решила проблему элегантно: они добавляют структурный шум к синтетическим изображениям и применяют технику mix-up для создания виртуальных промежуточных образцов. Представьте, что вы смешиваете два рентгеновских снимка в определенной пропорции — получается новый обучающий пример, который повышает разнообразие данных и снижает переобучение.
Исследователи протестировали метод на четырех типах медицинских изображений: рентгенографических, патологических, дерматоскопических и изображениях глазного дна. Результаты показали, что новый подход достигает более высокой точности при меньших вычислительных затратах по сравнению с существующими one-shot методами. Это означает, что больницы смогут обучать ИИ-модели для диагностики, не раскрывая данные пациентов и не тратя месяцы на обмен моделями.
Источник новости и обложки: techxplore.com