Neuer Ansatz reduziert Klassengleichgewicht durch Margin-Regularisierung

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Deep‑Learning‑Modelle zeigen häufig große Unterschiede in der Genauigkeit einzelner Klassen, selbst wenn die Trainingsdaten ausgeglichen sind. Diese Ungleichheit erschwert die zuverlässige Nutzung der Modelle in der Praxis. Der neue Ansatz MR² (Margin Regularization for Performance Disparity Reduction) bietet eine theoretisch fundierte Lösung, indem er die Margen in Logit‑ und Repräsentationsräumen dynamisch anpasst.

Die Analyse liefert einen margin‑basierten, klassen­sensitiven Generalisierungs­schwellenwert, der aufzeigt, wie die Streuung der Merkmale pro Klasse zu Fehlern beiträgt. Daraus folgt die Idee, für schwierige Klassen größere Margen einzusetzen. MR² optimiert die Logit‑Margen proportional zur Merkmals­streuung und bestraft übermäßige Margen in der Repräsentations­ebene, um die Intra‑Klassen‑Kompaktheit zu erhöhen.

In Experimenten mit sieben Datensätzen, darunter ImageNet, und verschiedenen vortrainierten Backbones (MAE, MoCov2, CLIP) zeigte MR² nicht nur eine Steigerung der Gesamtgenauigkeit, sondern verbesserte auch die Leistung bei den hartesten Klassen, ohne die einfachen Klassen zu beeinträchtigen. Damit wird die Leistungs­disparität signifikant reduziert.

Der Quellcode ist öffentlich verfügbar unter https://github.com/BeierZhu/MR2.

Ähnliche Artikel