Hebb'sches Lernen mit globaler Richtung: Neue Fortschritte
Der Backpropagation-Algorithmus hat die Entwicklung tiefer neuronaler Netze maßgeblich vorangetrieben, doch seine mangelnde biologische Plausibilität und der hohe Rechenaufwand haben die Suche nach Alternativen befeuert. Hebb'sches Lernen gilt als vielversprechende, biologisch plausiblere Alternative, doch die ausschließliche Nutzung lokaler Informationen ohne Berücksichtigung globaler Aufgabenziele schränkt seine Skalierbarkeit stark ein.
In diesem Zusammenhang wurde ein neues, modellagnostisches Framework namens Global-guided Hebbian Learning (GHL) vorgestellt. GHL kombiniert die Stabilität und Effektivität lokaler Updates – basierend auf Ojas Regel und kompetitivem Lernen – mit einem globalen, zeichenbasierten Signal, das die Richtung der Hebb'schen Plastizität steuert. Durch diese Synergie aus lokaler Plastizität und globaler Zielausrichtung können Netzwerke über verschiedenste Architekturen und Aufgaben hinweg effizient trainiert werden.
Umfangreiche Experimente zeigen, dass GHL bestehende Hebb'sche Ansätze konsequent übertrifft. Besonders bei großen Netzwerken und komplexen Datensätzen wie ImageNet erzielt das Framework konkurrenzfähige Ergebnisse und verkürzt die Lücke zu herkömmlichem Backpropagation deutlich. Diese Fortschritte markieren einen bedeutenden Schritt in Richtung biologisch plausibler, skalierbarer Lernmethoden für moderne neuronale Netzwerke.