N-ReLU: Stochastische Erweiterung von ReLU ohne tote Neuronen
Aktivierungsfunktionen sind das Herzstück von Deep‑Learning‑Modellen, denn sie ermöglichen nichtlineare Darstellungen. Die weit verbreitete ReLU (Rectified Linear Unit) hat jedoch ein bekanntes Problem: Neuronen, die dauerhaft negative Eingaben erhalten, werden zu „toten“ Neuronen und blockieren den Gradientenfluss. Um dieses Problem zu lösen, wurde N‑ReLU (Noise‑ReLU) entwickelt – eine stochastische Variante, die negative Aktivierungen durch zentrierte Gauß‑Rauschen ersetzt, ohne den Erwartungswert der Ausgabe zu verändern.