Neuroinspirierte Sparse-Architektur G2GNet verbessert Bildklassifikation um 4,3 %
Eine neue Architektur namens G2GNet, die sich an den sparsamen, modularen Verbindungen des Maus‑Visuallappens orientiert, hat die Genauigkeit bei Standard‑Vision‑Benchmarks um bis zu 4,3 % gesteigert – und das mit bis zu 75 % weniger Parametern als herkömmliche, vollständig verbundene Modelle.
G2GNet nutzt ein Ensemble‑zu‑Ensemble‑Kommunikationsschema, das die Funktionsweise biologischer neuronaler Schaltkreise nachbildet. Durch die gezielte Einschränkung der Verbindungen zwischen den Feedforward‑Schichten entsteht ein sparsames, hierarchisches Netzwerk, das gleichzeitig funktionale Spezialisierung und Robustheit bewahrt.
Zur weiteren Optimierung wird ein dynamisches sparsames Training (DST) eingesetzt, bei dem während des Lernprozesses Kanten entfernt und neu angelegt werden. Ergänzt wird dies durch eine Hebb‑inspirierte Re‑Verknüpfungsregel, die auf Aktivitätskorrelationen basiert und die Plastizität biologischer Netzwerke simuliert.
Die Kombination aus struktureller Sparsität, dynamischem Training und biologisch inspirierten Re‑Verknüpfungen ermöglicht es G2GNet, bei Aufgaben wie Fashion‑MNIST, CIFAR‑10 und CIFAR‑100 nicht nur die Genauigkeit zu erhöhen, sondern auch die Rechenkosten deutlich zu senken – ein bedeutender Schritt in Richtung effizienterer künstlicher neuronaler Netzwerke.