Neues TIE-Framework erkennt unsichere Eingaben zuverlässig

arXiv – cs.LG Original ≈2 Min. Lesezeit
Anzeige

Deep‑Learning‑Modelle haben lange damit zu kämpfen, Eingaben zu erkennen, die außerhalb ihres Trainingsbereichs liegen. Das führt zu überzogenen Vorhersagen und macht die Systeme unzuverlässig. Mit dem neuen TIE‑Framework (Training‑Inversion‑Exclusion) wird dieses Problem jedoch elegant gelöst.

TIE erweitert einen herkömmlichen n‑Klassen‑Classifier um eine zusätzliche „Garbage‑Klasse“. Diese Klasse wird zunächst mit zufälligem Gauß‑Rauschen gefüllt und steht für alle potenziellen Ausreißer. Während jedes Trainingsdurchlaufs durchläuft das Modell einen geschlossenen Zyklus aus Training, Inversion und Ausschluss. Dabei werden stark unsichere, rekonstruiert gewordene Samples – die aus dem gerade trainierten Klassifikator zurückgeworfen werden – in die Garbage‑Klasse verschoben.

Im Laufe mehrerer Iterationen verwandeln sich diese inversen Samples von chaotischen Artefakten zu klaren, visuell kohärenten Klassenprototypen. So erhält man nicht nur eine robuste OOD‑Erkennung, sondern auch einen transparenten Einblick, wie das Modell seine Lernräume strukturiert.

Bei der Inferenz kann TIE Eingaben entweder direkt der Garbage‑Klasse zuordnen oder sie als unsichere Fehlklassifikationen innerhalb der regulären Klassen ausgeben. Beide Wege führen zu einer klaren Trennung von in‑Distribution‑ und Out‑of‑Distribution‑Daten, ohne dass externe OOD‑Datensätze benötigt werden.

Die Leistung des Frameworks wurde anhand mehrerer OOD‑Metriken und Kennzahlen wie AUROC bewertet. Die Ergebnisse zeigen, dass TIE sowohl die Unsicherheitsabschätzung als auch die OOD‑Erkennung in einem einheitlichen Ansatz übertrifft.

Zusammengefasst bietet TIE eine praktische, interpretierbare Lösung für die zuverlässige Erkennung von unsicheren Eingaben in Deep‑Learning‑Systemen – ein bedeutender Schritt hin zu sichereren KI‑Anwendungen.

Ähnliche Artikel