mlx-snn: Spiking Neural Networks jetzt nativ auf Apple Silicon
Mit der neuen Bibliothek mlx-snn wird Spiking Neural Network (SNN) Forschung endlich nativ auf Apple Silicon möglich. Die erste SNN‑Bibliothek, die ausschließlich auf dem MLX‑Framework von Apple basiert, füllt damit die Lücke, die bisher von PyTorch‑basierten Lösungen wie snnTorch, Norse, SpikingJelly und Lava offen blieb.
mlx-snn bietet ein umfangreiches Funktionsspektrum: Sechs neuronale Modelle (LIF, IF, Izhikevich, Adaptive LIF, Synaptic, Alpha), vier Surrogat‑Gradienten‑Funktionen, vier Spike‑Encoding‑Methoden – darunter ein EEG‑spezifischer Encoder – sowie einen kompletten Backpropagation‑through‑Time‑Trainings‑Pipeline. Damit können Entwickler:innen komplexe SNN‑Architekturen ohne Umstieg auf andere Frameworks realisieren.
Die Bibliothek nutzt die Vorteile von MLX, darunter die einheitliche Speicherarchitektur, lazy evaluation und die komposable Funktions‑Transforms wie mx.grad und mx.compile. Diese Features ermöglichen eine effiziente Ausführung von SNN‑Modellen direkt auf Apple Silicon Hardware.
In Benchmarks zur MNIST‑Zifferklassifikation erreichte mlx-snn bei fünf Hyperparameter‑Konfigurationen und drei Backends eine Genauigkeit von bis zu 97,28 %. Gleichzeitig war das Training 2,0 bis 2,5 mal schneller und benötigte 3 bis 10 mal weniger GPU‑Speicher als snnTorch auf dem gleichen M3 Max‑Chip.
mlx-snn ist Open‑Source unter der MIT‑Lizenz und steht über PyPI sowie auf GitHub (https://github.com/D-ST-Sword/mlx-snn) zur Verfügung.