Federated Learning für LLM-Router: Mehr Effizienz ohne zentrale Daten
Große Sprachmodelle (LLMs) werden zunehmend als remote gehostete Dienste von Edge‑ und Unternehmensclients genutzt, die die neuesten Modelle nicht lokal ausführen können. Da die Modelle stark in Leistung und Preis varii…
- Große Sprachmodelle (LLMs) werden zunehmend als remote gehostete Dienste von Edge‑ und Unternehmensclients genutzt, die die neuesten Modelle nicht lokal ausführen können.
- Da die Modelle stark in Leistung und Preis variieren, ist es entscheidend, Anfragen an jene Modelle zu leiten, die ein optimales Verhältnis zwischen Qualität und Rechena…
- Aktuelle Router‑Ansätze setzen auf zentralisierte Evaluationsdaten, die jedoch oft fragmentiert und datenschutzsensibel sind.
Große Sprachmodelle (LLMs) werden zunehmend als remote gehostete Dienste von Edge‑ und Unternehmensclients genutzt, die die neuesten Modelle nicht lokal ausführen können. Da die Modelle stark in Leistung und Preis variieren, ist es entscheidend, Anfragen an jene Modelle zu leiten, die ein optimales Verhältnis zwischen Qualität und Rechenaufwand bieten.
Aktuelle Router‑Ansätze setzen auf zentralisierte Evaluationsdaten, die jedoch oft fragmentiert und datenschutzsensibel sind. Das Zentralisieren dieser Daten ist daher nicht praktikabel, und die Schulung eines Routers auf Basis lokaler Daten einzelner Clients führt zu begrenzter Abdeckung und verzerrten Ergebnissen.
Die neue Arbeit präsentiert das erste federierte Framework für LLM‑Routing. Es ermöglicht Clients, aus lokalen Offline‑Evaluationsdaten eine gemeinsame Routing‑Politik zu lernen. Dabei werden sowohl parametrisierte Multilayer‑Perceptron‑Router als auch nichtparametrische K‑Means‑Router unterstützt, um heterogene Client‑Anfrageverteilungen und ungleichmäßige Modellabdeckung zu berücksichtigen.
In zwei Benchmark‑Tests zeigte die federierte Zusammenarbeit eine deutliche Verbesserung der Genauigkeit‑Kosten‑Grenze gegenüber lokal trainierten Routern. Der Erfolg resultiert aus einer erweiterten Modellabdeckung und einer besseren Generalisierung der Anfragen. Theoretische Analysen bestätigen zudem, dass federiertes Training die Routing‑Suboptimalität reduziert.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.