Genauere Unsicherheitsanalyse: Exakte Ergebnisse für MLPs mit ReLU
Eine neue Veröffentlichung auf arXiv liefert exakte analytische Formeln für die Unsicherheitsweitergabe in trainierten Multi‑Layer‑Perzeptronen (MLPs) mit einer einzigen versteckten Schicht und ReLU‑Aktivierungsfunktionen. Die Autoren zeigen, wie man die Erwartungswerte und Varianzen der Netzwerkausgabe berechnet, wenn die Eingabe einer mehrdimensionalen Gaußverteilung folgt.
Im Gegensatz zu früheren Arbeiten, die auf Reihenentwicklungen angewiesen waren, erhalten die Forscher hier geschlossene Ausdrücke ohne Approximationen. Dadurch wird die Genauigkeit der Unsicherheitsabschätzungen deutlich verbessert und die Berechnungen werden effizienter.
Die Ergebnisse eröffnen neue Möglichkeiten für die Anwendung von MLPs in Bereichen, in denen die Quantifizierung von Unsicherheiten entscheidend ist, etwa in der Robotik, der medizinischen Diagnostik oder der Finanzmodellierung. Durch die exakte analytische Behandlung können Entwickler nun zuverlässigere Vorhersagen treffen und die Vertrauenswürdigkeit ihrer Modelle besser einschätzen.