Neues Lernverfahren verhindert Vergessen bei kontinuierlichem Multitask‑Lernen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In kritischen Bereichen wie autonomem Fahren oder medizinischer Bildanalyse lernen KI‑Systeme ständig neue Aufgaben anhand derselben Datenquelle. Ein Modell, das zunächst Verkehrsschilder erkennt, muss später noch Ampeln oder Fahrzeugtypen identifizieren – ein Szenario, das als kontinuierliches Multitask‑Lernen (CMTL) bezeichnet wird.

Traditionelle Methoden des kontinuierlichen Lernens stoßen hier an ihre Grenzen, weil sie fragmentierte, auf einzelne Aufgaben zugeschnittene Merkmale erzeugen, die sich gegenseitig stören. Das neue Verfahren „Learning with Preserving“ (LwP) ändert den Ansatz: Statt die Ausgaben einzelner Aufgaben zu schützen, bewahrt es die geometrische Struktur des gemeinsamen Repräsentationsraums.

Im Kern steht der Dynamically Weighted Distance Preservation (DWDP) Loss, der die paarweisen Abstände zwischen latenten Datenrepräsentationen reguliert und so ein Drift des Modells verhindert. Durch die Erhaltung dieser Struktur kann das System implizites Wissen behalten und gleichzeitig vielfältige Aufgaben unterstützen – ohne einen Replay‑Buffer zu benötigen, was besonders datenschutzfreundlich ist.

Umfangreiche Tests an Zeitreihen‑ und Bildbenchmarks zeigen, dass LwP nicht nur das katastrophale Vergessen reduziert, sondern auch die führenden Baselines in CMTL‑Aufgaben übertrifft. Das Verfahren eröffnet damit neue Möglichkeiten für KI‑Anwendungen, die kontinuierlich lernen und gleichzeitig Datenschutz und Stabilität gewährleisten müssen.

Ähnliche Artikel