Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Transformers”
Forschung

<h1>Benchmark: Kein Modell ist immer das Beste für US-Stromnetz-Vorhersagen</h1> <p>Die Auswahl des passenden Deep‑Learning‑Modells für die Vorhersage von Stromnetzlasten bleibt eine Herausforderung, weil die Leistung stark von den verfügbaren Daten abhängt. In einer neuen Studie wurden fünf moderne Architekturen systematisch miteinander verglichen.</p> <p>Zu den getesteten Modellen gehören zwei State‑Space‑Modelle (PowerMamba und S‑Mamba), zwei Transformer‑Varianten (iTransformer und PatchTST) sowie ein kl

arXiv – cs.LG
Forschung

<h1>Neues Elastic Memory: Kompression und Skalierbarkeit für Transformer</h1> <p>Transformers stoßen bei langen Kontexten an einen quadratischen Engpass in der Aufmerksamkeitsmechanik. Neu entwickelte Recurrent‑Memory‑Ansätze erweitern zwar den Kontext, leiden jedoch häufig unter einem grundlegenden Kompromiss zwischen theoretischer Eleganz und praktischer Skalierbarkeit.</p> <p>Die jüngste Veröffentlichung stellt Elastic Memory vor – eine neue Speicherarchitektur, die auf dem HiPPO‑Framework für Online‑Fun

arXiv – cs.LG