Qualität statt Quantität: Selektives Online‑Lernen mit GPs in Multi‑Agenten
In verteilten Lernsystemen für Multi‑Agenten ist die Balance zwischen der Menge und der Qualität der Modelle entscheidend. Ein neues Verfahren, das auf arXiv veröffentlicht wurde, zeigt, dass die bloße Einbeziehung aller Modelle zu suboptimalen Vorhersagen führt. Stattdessen wird die Qualität der Modelle priorisiert, um die Zusammenarbeit zu optimieren.
Das vorgestellte Framework, genannt Distributed Error‑Informed Gaussian Process (EIGP), ermöglicht es jedem Agenten, seine Nachbarn anhand einer Auswahlfunktion zu bewerten. Auf dieser Basis wählt er die Modelle mit den geringsten Vorhersagefehlern aus. Durch die Integration von gEIGP, einem Greedy‑Algorithmus, und aEIGP, einem adaptiven Verfahren, werden die Vorhersagegeschwindigkeit und -genauigkeit weiter verbessert.
Zusätzlich wurden Techniken für schnelle Vorhersagen und Modellupdates entwickelt, die auf einer iterativen Fehlerquantifizierung und einer Datenlöschstrategie beruhen. Diese Maßnahmen erlauben Echtzeit‑Lernoperationen und reduzieren den Speicherbedarf. Simulationen demonstrieren, dass EIGP die Leistung über aktuelle verteilte GP‑Methoden hinweg deutlich steigert.