Poisson‑Hyperflächenprozesse revolutionieren ReLU‑Netzwerke
Neural‑Netzwerke haben in den letzten Jahren bahnbrechende Erfolge in Klassifikations‑ und Regressionsaufgaben erzielt. Besonders die Rectified‑Linear‑Unit (ReLU) wird häufig als Aktivierungsfunktion in den versteckten Schichten eingesetzt. In einer neuen Studie wird nun gezeigt, dass Poisson‑Hyperflächenprozesse (PHP) mit einer Gauß‑Priorität eine völlig alternative probabilistische Darstellung zweischichtiger ReLU‑Netzwerke bieten.