Ein‑Takt‑Spiking‑Network: Self‑Dropping Neuron & Bayesian Optimierung für Energie
Spiking Neural Networks (SNNs) sind ein vielversprechendes, biologisch inspiriertes Modell, das dank seiner ereignisgesteuerten Verarbeitung enorme Energieeinsparungen erzielt. Im Gegensatz zu herkömmlichen künstlichen neuronalen Netzwerken (ANNs) senden SNNs Informationen über diskrete Spike‑Signale, was die Rechenenergie durch sparsames Encoding reduziert.
Ein entscheidendes Problem bei SNNs ist die Notwendigkeit mehrerer Zeitschritte, die sowohl die Inferenzlatenz als auch den Energieverbrauch stark erhöhen. Das neue Verfahren präsentiert ein Ein‑Takt‑SNN, das die Genauigkeit verbessert und den Energieverbrauch in einem einzigen Zeitschritt senkt. Durch die Optimierung der Spike‑Generierung und der zeitlichen Parameter wird die Effizienz deutlich gesteigert.
Der Schlüsselmechanismus ist der Self‑Dropping Neuron, der die Informationskapazität erhöht, indem er Schwellenwerte dynamisch anpasst und selektiv Spikes unterdrückt. Zusätzlich wird Bayesian Optimization eingesetzt, um die optimalen Zeitparameter global zu bestimmen und einen effizienten Ein‑Takt‑Modus zu erreichen.
Experimentelle Ergebnisse auf den Datensätzen Fashion‑MNIST, CIFAR‑10 und CIFAR‑100 zeigen, dass das neue Modell bei 93,72 %, 92,20 % bzw. 69,45 % Klassifikationsgenauigkeit erreicht – vergleichbar oder sogar besser als traditionelle mehrzeitschritt‑SNNs. Gleichzeitig reduziert es den Energieverbrauch um 56 %, 21 % bzw. 22 %. Diese Fortschritte machen das Ein‑Takt‑SNN zu einer vielversprechenden Lösung für energieeffiziente Edge‑Computing‑Anwendungen.