Genauere Unsicherheitsanalyse: Exakte Ergebnisse für MLPs mit ReLU
Eine neue Veröffentlichung auf arXiv liefert exakte analytische Formeln für die Unsicherheitsweitergabe in trainierten Multi‑Layer‑Perzeptronen (MLPs) mit einer einzigen versteckten Schicht und ReLU‑Aktivierungsfunktionen. Die Autoren zeigen, wie man die Erwartungswerte und Varianzen der Netzwerkausgabe berechnet, wenn die Eingabe einer mehrdimensionalen Gaußverteilung folgt.