Neue statistische Garantie für Conformal Predictors bei kleinen Datensätzen
In der heutigen Forschung, in der komplexe Modelle wie tiefe neuronale Netze eingesetzt werden, ist die zuverlässige Abschätzung von Unsicherheiten entscheidend – besonders bei sicherheitskritischen Anwendungen. Conformal Prediction (CP) bietet dafür ein etabliertes, datenagnostisches Verfahren, das statistische Garantien liefert, ohne Annahmen über die Fehlerverteilung zu treffen. Doch bei kleinen Kalibrierungsdatensätzen, die in vielen realen Szenarien üblich sind, kann die Streuung der Abdeckungswerte stark schwanken, was die Zuverlässigkeit der Unsicherheitsmodelle beeinträchtigt.
Die neue Studie präsentiert eine verbesserte statistische Garantie, die probabilistische Informationen über die Abdeckung eines einzelnen Conformal Predictors liefert. Diese Methode nähert sich bei großen Kalibrierungssets dem klassischen CP-Ansatz an, bietet aber für kleinere Datensätze eine robustere Abschätzung. Damit wird die Anwendung von Conformal Prediction in der Praxis erleichtert, insbesondere wenn die Datenmenge begrenzt ist und präzise Unsicherheitsabschätzungen erforderlich sind.