Neuer Ansatz reduziert Klassengleichgewicht durch Margin-Regularisierung
Deep‑Learning‑Modelle zeigen häufig große Unterschiede in der Genauigkeit einzelner Klassen, selbst wenn die Trainingsdaten ausgeglichen sind. Diese Ungleichheit erschwert die zuverlässige Nutzung der Modelle in der Praxis. Der neue Ansatz MR² (Margin Regularization for Performance Disparity Reduction) bietet eine theoretisch fundierte Lösung, indem er die Margen in Logit‑ und Repräsentationsräumen dynamisch anpasst.
Die Analyse liefert einen margin‑basierten, klassensensitiven Generalisierungsschwellenwert, der aufzeigt, wie die Streuung der Merkmale pro Klasse zu Fehlern beiträgt. Daraus folgt die Idee, für schwierige Klassen größere Margen einzusetzen. MR² optimiert die Logit‑Margen proportional zur Merkmalsstreuung und bestraft übermäßige Margen in der Repräsentationsebene, um die Intra‑Klassen‑Kompaktheit zu erhöhen.
In Experimenten mit sieben Datensätzen, darunter ImageNet, und verschiedenen vortrainierten Backbones (MAE, MoCov2, CLIP) zeigte MR² nicht nur eine Steigerung der Gesamtgenauigkeit, sondern verbesserte auch die Leistung bei den hartesten Klassen, ohne die einfachen Klassen zu beeinträchtigen. Damit wird die Leistungsdisparität signifikant reduziert.
Der Quellcode ist öffentlich verfügbar unter https://github.com/BeierZhu/MR2.