Сломанные веса: как разное железо мешает федеративному обучению и что мы можем с этим сделать
О чём доклад?
Федеративное обучение позволяет обучать модели на данных, которые не покидают устройства пользователей. В теории концепция федеративного обучения устроена замечательно: приватность сохраняется, модель обучается, метрики сходятся. Но что, если данные на разных устройствах искажены по-разному – из-за сенсоров, версий ОС или особенностей железа? Это называется system-induced bias — смещение, которое модель заучивает вместо реальных закономерностей. В своём докладе расскажу: — откуда берётся такое смещение и почему его порой сложно поймать; — как отличить «плохое железо» от просто других данных; — какие подходы помогают справиться.
Кому будет полезно?
Доклад будет полезен ML-инженерам, data scientists, исследователям federated learning, mobile- и platform-инженерам, а также всем, кто разрабатывает ИИ-системы для пользовательских устройств и хочет лучше понимать, как различия в железе, сенсорах и ОС влияют на качество обучения моделей.


