AnaCP: Analytische Kontrastprojektion erreicht CIL‑Obergrenze ohne Gradienten

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der Klasse‑inkrementellen Lernumgebung, bei der ein Modell fortlaufend neue Aufgaben mit jeweils eigenen Klassen erlernt, führt das Fehlen von vortrainierten Modellen häufig zu katastrophalem Vergessen. Durch die Notwendigkeit, sowohl Merkmalsrepräsentationen als auch Klassifikatoren gleichzeitig zu aktualisieren, verlieren herkömmliche Ansätze schnell an Genauigkeit.

Neuere Ansätze nutzen vortrainierte Modelle als feste Feature‑Extraktoren und kombinieren diese mit analytischen Klassifikatoren, was die Effizienz deutlich steigert. Dennoch bleibt die zentrale Schwäche bestehen: die Merkmale können nicht kontinuierlich an die sich verändernden Aufgaben angepasst werden, was die Leistung begrenzt.

Das vorgestellte Verfahren AnaCP (Analytic Contrastive Projection) löst dieses Problem, indem es die Vorteile analytischer Klassifikatoren beibehält und gleichzeitig eine inkrementelle Anpassung der Merkmale ohne gradientsbasiertes Training ermöglicht. Dadurch wird das katastrophale Vergessen eliminiert und die Genauigkeit erreicht das Niveau eines Joint‑Training‑Ansatzes – die theoretische Obergrenze für CIL. In den Experimenten übertrifft AnaCP sämtliche bestehenden Baselines und demonstriert damit einen bedeutenden Fortschritt im Bereich des kontinuierlichen Lernens.

Ähnliche Artikel