Hybrid‑Federated‑Learning: Mehr Genauigkeit bei Rauschbelastung
In der Welt des verteilten Lernens stehen Federated Learning (FL) und Federated Distillation (FD) als zwei prominente Ansätze, die Modelle auf den Endgeräten trainieren und gleichzeitig die Privatsphäre schützen. Jeder Ansatz hat jedoch eigene Schwächen: FL ist schneller, aber anfälliger für Rauschen, während FD robuster gegen Störungen ist, jedoch langsamer konvergiert.