ДевФест26
К программе
Доклад·22 мая · 13:0014:00ОблакаМашинное ОбучениеMLOpsПроизводительность

Сломанные веса: как разное железо мешает федеративному обучению и что мы можем с этим сделать

О чём доклад?

Федеративное обучение позволяет обучать модели на данных, которые не покидают устройства пользователей. В теории концепция федеративного обучения устроена замечательно: приватность сохраняется, модель обучается, метрики сходятся. Но что, если данные на разных устройствах искажены по-разному – из-за сенсоров, версий ОС или особенностей железа? Это называется system-induced bias — смещение, которое модель заучивает вместо реальных закономерностей. В своём докладе расскажу: — откуда берётся такое смещение и почему его порой сложно поймать; — как отличить «плохое железо» от просто других данных; — какие подходы помогают справиться.