Forschung
RewriteNets: String‑Rewriting‑Architektur für effizientes Sequenz‑Modellieren
Traditionelle Sequenzmodelle wie der Transformer bauen ihre Struktur auf dichten Aufmerksamkeitsgewichten auf, was zu einer quadratischen R…
arXiv – cs.LG