Conformal Prediction trifft Long-Tail-Klassifikation
Conformal Prediction (CP) ist ein bewährtes Verfahren zur Unsicherheitsquantifizierung, das die Punktvorhersage eines vortrainierten Modells in einen Vorhersage‑Set umwandelt. Die Größe dieses Sets spiegelt das Vertrauen des Modells wider. Bei langen Schwanz‑Verteilungen von Labels zeigen herkömmliche CP‑Methoden jedoch oft ein unausgewogenes Coverage‑Verhalten: Die Hauptklassen werden überabgedeckt, während die seltenen Klassen unterabgedeckt bleiben. Dieses Ungleichgewicht gefährdet die Zuverlässigkeit der Vorhersagen für Minderheiten.
Um dem entgegenzuwirken, wurde die Tail‑Aware Conformal Prediction (TACP)-Methode entwickelt. TACP nutzt die Struktur des Long‑Tail‑Problems, um die Abdeckung der Haupt‑ und Schwanzklassen zu harmonisieren und die Abdeckungslücke zu verkleinern. Theoretische Analysen zeigen, dass TACP konsequent einen kleineren Head‑Tail‑Coverage‑Gap erzielt als Standard‑CP‑Ansätze.
Eine weiterführende Variante, soft TACP (sTACP), ergänzt das Konzept durch ein Re‑Weighting‑Mechanismus, der die Abdeckung über alle Klassen hinweg noch stärker ausbalanciert. Der Ansatz ist flexibel und lässt sich mit verschiedenen Nicht‑Konformitäts‑Scores kombinieren. Experimente an mehreren Long‑Tail‑Benchmark‑Datensätzen demonstrieren die Wirksamkeit von TACP und sTACP und unterstreichen ihre Bedeutung für robuste Vorhersagen in realen, unausgeglichenen Datenumgebungen.