MultiKrum: Neue theoretische Beweise für robuste Aggregation im Lernen
In verteilten Lernsystemen, bei denen mehrere Knoten gleichzeitig Modelle trainieren, ist die Aggregation der lokalen Updates entscheidend – besonders wenn einige Knoten von böswilligen Akteuren manipuliert werden. Dieses Szenario, bekannt als Byzantine‑Threat‑Model, verlangt Aggregationsregeln, die trotz fehlerhafter Beiträge zuverlässig bleiben.