Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Kommunikationskosten”
Forschung

<p>Edge Control Attack: Neue Bedrohung für Ranking‑basiertes Federated Learning</p> <p>Federated Rank Learning (FRL) hat sich als vielversprechendes Paradigma für sichere, dezentrale Modelle etabliert. Durch die Nutzung von diskreten Ranglisten anstelle von kontinuierlichen Gewichtsanpassungen reduziert FRL nicht nur die Kommunikationskosten, sondern erschwert auch Angreifern das Skalieren oder Optimieren schädlicher Updates. Diese Eigenschaften machen FRL besonders attraktiv für sensible Anwendungen wie On

arXiv – cs.LG
Forschung

FedRP: Effiziente, datenschutzfreundliche Federated Learning-Methode Ein neues Verfahren namens FedRP kombiniert Random Projection mit dem Alternating Direction Method of Multipliers (ADMM), um die Privatsphäre bei federated learning (FL) zu stärken und gleichzeitig die Kommunikationskosten zu senken. Durch die Reduktion der Dimensionalität der Modellparameter vor dem Versand an einen zentralen Server wird die Menge der übertragenen Daten deutlich verringert. FedRP bietet eine starke $(\epsilon, \delta)$-Di

arXiv – cs.LG