Neues Modell abstimmt bei fehlenden Daten: Epistemische Reject-Option

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In hochriskanten Anwendungen müssen Vorhersagemodelle nicht nur präzise Ergebnisse liefern, sondern auch ihre Unsicherheit genau einschätzen und kommunizieren. Das neue Konzept der „epistemischen Reject‑Option“ ermöglicht genau das: Das Modell kann sich zurückziehen, wenn die Unsicherheit aufgrund unzureichender Daten zu groß ist.

Traditionelle Reject‑Option‑Ansätze konzentrieren sich ausschließlich auf aleatorische Unsicherheit – die zufällige Streuung, die bei großen Trainingsdatensätzen oft dominiert. In vielen realen Szenarien ist die Datenmenge jedoch begrenzt, sodass die epistemische Unsicherheit – die Unsicherheit über das Modell selbst – nicht vernachlässigt werden kann. Das vorgestellte Verfahren nutzt Bayesian Learning, um die optimale Vorhersage zu definieren: Sie minimiert den erwarteten Regret, also die Leistungslücke zwischen dem gelernten Modell und dem Bayes‑optimalen Predictor mit vollständigem Wissen über die Datenverteilung.

Das Modell zieht sich zurück, sobald der Regret für einen Eingabe­punkt einen festgelegten Kosten­schwellenwert überschreitet. Damit wird erstmals ein prinzipielles Rahmenwerk geschaffen, das es ermöglicht, Eingaben zu identifizieren, für die die vorhandenen Trainingsdaten nicht ausreichen, um verlässliche Entscheidungen zu treffen. Dieser Ansatz markiert einen wichtigen Fortschritt in der sicheren Anwendung von KI in Bereichen, in denen Fehler schwerwiegende Folgen haben können.

Ähnliche Artikel