RewriteNets: String‑Rewriting‑Architektur für effizientes Sequenz‑Modellieren
Traditionelle Sequenzmodelle wie der Transformer bauen ihre Struktur auf dichten Aufmerksamkeitsgewichten auf, was zu einer quadratischen Rechenkomplexität führt. Die neu vorgestellte RewriteNet‑Architektur verfolgt einen völlig anderen Ansatz: Sie nutzt explizite, parallele String‑Rewriting‑Regeln, um die Struktur direkt zu modellieren.