QL‑LSTM: Parameter‑sparende LSTM für stabile Langsequenz‑Modelle
Recurrent Neural Networks wie LSTM und GRU sind nach wie vor die bevorzugte Wahl für Sequenz‑Modelle, doch sie leiden an zwei zentralen Schwächen: zu vielen gate‑spezifischen Parametern und einer eingeschränkten Fähigke…