К программе
Доклад·22 мая · 13:00–14:00ОблакаМашинное ОбучениеMLOpsПроизводительность
Сломанные веса: как разное железо мешает федеративному обучению и что мы можем с этим сделать
О чём доклад?
Федеративное обучение позволяет обучать модели на данных, которые не покидают устройства пользователей. В теории концепция федеративного обучения устроена замечательно: приватность сохраняется, модель обучается, метрики сходятся. Но что, если данные на разных устройствах искажены по-разному – из-за сенсоров, версий ОС или особенностей железа? Это называется system-induced bias — смещение, которое модель заучивает вместо реальных закономерностей. В своём докладе расскажу: — откуда берётся такое смещение и почему его порой сложно поймать; — как отличить «плохое железо» от просто других данных; — какие подходы помогают справиться.

