ДевФест26
Доклад22 мая · 13:0014:00ОблакаМашинное ОбучениеMLOpsПроизводительность

Сломанные веса: как разное железо мешает федеративному обучению и что мы можем с этим сделать

О чём доклад?

Федеративное обучение позволяет обучать модели на данных, которые не покидают устройства пользователей. В теории концепция федеративного обучения устроена замечательно: приватность сохраняется, модель обучается, метрики сходятся. Но что, если данные на разных устройствах искажены по-разному – из-за сенсоров, версий ОС или особенностей железа? Это называется system-induced bias — смещение, которое модель заучивает вместо реальных закономерностей. В своём докладе расскажу: — откуда берётся такое смещение и почему его порой сложно поймать; — как отличить «плохое железо» от просто других данных; — какие подходы помогают справиться.

Кому будет полезно?

Доклад будет полезен ML-инженерам, data scientists, исследователям federated learning, mobile- и platform-инженерам, а также всем, кто разрабатывает ИИ-системы для пользовательских устройств и хочет лучше понимать, как различия в железе, сенсорах и ОС влияют на качество обучения моделей.