Quantifizierung der Unsicherheit in generativen Modellen: Ein neuer Ansatz
Generative Modelle sind heute in vielen Bereichen allgegenwärtig, doch ihre Zuverlässigkeit bleibt ein zentrales Thema. Ein bislang wenig erforschtes Problem ist die Quantifizierung der Unsicherheit bei der Annäherung an Zielverteilungen. Traditionelle Bewertungsmethoden messen vor allem die Nähe zwischen gelerntem und Zielverteilung, vernachlässigen jedoch die inhärente Unsicherheit dieser Messungen.
In diesem Positionspapier wird das Problem der Unsicherheitsquantifizierung beim Lernen generativer Modelle formalisiert. Die Autoren skizzieren mehrere Forschungsrichtungen, darunter die Nutzung von Ensemble-basierten Präzisions-Recall-Kurven, um die Unsicherheit systematisch zu erfassen.
Preliminary Experimente an synthetischen Datensätzen zeigen, dass aggregierte Präzisions-Recall-Kurven die Unsicherheit der Modellapproximation effektiv darstellen. Damit lassen sich verschiedene Architekturen anhand ihrer Unsicherheitsprofile vergleichen und gezielt verbessern.