Neue Evidenzbasierte Klassifikationen verbessern Unsicherheitsabschätzung in KI

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In der Künstlichen Intelligenz stellt die Quantifizierung von Unsicherheiten ein zentrales Problem dar, das Entscheidungen, Risikobewertungen und die Zuverlässigkeit von Modellen stark beeinflusst. Um diesem Problem zu begegnen, stellen die Autoren die Methoden Credal und Interval Deep Evidential Classifications (CDEC bzw. IDEC) vor.

CDEC nutzt einen credalen Satz – eine geschlossene, konvexe Menge von Wahrscheinlichkeiten – während IDEC Intervalle von evidenzbasierten Vorhersageverteilungen einsetzt. Beide Ansätze verhindern Überanpassung an Trainingsdaten und ermöglichen eine systematische Bewertung von epistemischer (reduzierbarer) und aleatorischer (unvermeidbarer) Unsicherheit.

Wenn die Unsicherheit einen akzeptablen Schwellenwert überschreitet, können CDEC und IDEC die Klassifikation zurückhalten und auf einen Überschuss an epistemischer oder aleatorischer Unsicherheit hinweisen. Liegen die Unsicherheitswerte innerhalb der zulässigen Grenzen, liefern die Modelle eine Auswahl von Labels mit robusten probabilistischen Garantien.

Die Modelle werden mit herkömmlichem Backpropagation und einer Verlustfunktion trainiert, die auf der Evidenztheorie basiert. Dadurch übertreffen sie frühere Ansätze und erweitern die aktuelle Evidenz-basierte Deep-Learning-Literatur.

Umfangreiche Experimente an MNIST, CIFAR‑10 und CIFAR‑100 sowie an natürlichen Out‑of‑Distribution‑Shifts (F‑MNIST/K‑MNIST, SVHN/Intel, TinyImageNet) zeigen, dass CDEC und IDEC eine konkurrenzfähige Vorhersagegenauigkeit erreichen, eine führende OoD‑Erkennung unter epistemischer und totaler Unsicherheit bieten und eng kalibrierte Vorhersagebereiche liefern, die zuverlässig wachsen.

Ähnliche Artikel