OvA-LP: Framework reduziert Drift bei Federated Learning auf heterogenen Daten
Ein neues, schlankes Verfahren namens OvA‑LP hat die Art und Weise, wie Federated Fine‑Tuning (FFT) mit stark heterogenen Client‑Daten umgeht, grundlegend verändert. Während herkömmliche Aggregations‑ und Personalisierungsansätze den Drift – die Divergenz der lokalen Updates – erst nachträglich korrigieren, arbeitet OvA‑LP bereits im Kern des PEFT‑basierten FFT‑Paradigmas gegen die Drift an.