Neue statistische Garantie für Conformal Predictors bei kleinen Datensätzen
In der heutigen Forschung, in der komplexe Modelle wie tiefe neuronale Netze eingesetzt werden, ist die zuverlässige Abschätzung von Unsicherheiten entscheidend – besonders bei sicherheitskritischen Anwendungen. Conformal Prediction (CP) bietet dafür ein etabliertes, datenagnostisches Verfahren, das statistische Garantien liefert, ohne Annahmen über die Fehlerverteilung zu treffen. Doch bei kleinen Kalibrierungsdatensätzen, die in vielen realen Szenarien üblich sind, kann die Streuung der Abdeckungswerte stark schwanken, was die Zuverlässigkeit der Unsicherheitsmodelle beeinträchtigt.