Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Alter”
Forschung

<p>Warum sind lineare RNNs besser parallelisierbar?</p> <p>In der aktuellen Forschung gewinnen lineare rekurrente neuronale Netze (LRNNs) als Sprachmodelle immer mehr an Bedeutung. Sie vereinen eine starke Ausdruckskraft mit einer hohen Parallelisierbarkeit, was sie zu einer attraktiven Alternative zu herkömmlichen, nichtlinearen RNNs und sogar zu Transformern macht.</p> <p>Die neue Studie von ArXiv 2603.03612v1 liefert die entscheidende Antwort: LRNNs lassen sich als log‑tiefe arithmetische Schaltkreise da

arXiv – cs.LG
Forschung

<p>Iconic Signs verbessern Transfer Learning bei der Erkennung von Gebärdensprache</p> <p>In der aktuellen Forschung zur Gebärdensprachenerkennung wird häufig Transfer Learning (TL) aus bildbasierten Datensätzen wie ImageNet eingesetzt. Einige Studien erweitern diesen Ansatz auf alternative Sprachdatensätze und konzentrieren sich dabei auf Zeichen, die sprachübergreifend ähnlich sind. Die neue Untersuchung prüft, ob solche Ähnlichkeiten tatsächlich notwendig sind, indem sie die TL-Leistung zwischen ikonisch

arXiv – cs.AI
Forschung

<p>Temporal imbalance erklärt Bias bei Class-Incremental Learning</p> <p>Mit der zunehmenden Verbreitung von Deep‑Learning in Bildverarbeitungsaufgaben gewinnt das Paradigma des Class‑Incremental Learning (CIL) immer mehr an Bedeutung. Dabei steht die Herausforderung des „catastrophic forgetting“ im Fokus: Modelle neigen dazu, neue Klassen zu bevorzugen und die Leistung auf älteren Klassen zu verlieren. Bisher wurde dieser Bias vor allem auf ein Ungleichgewicht innerhalb einzelner Aufgaben zurückgeführt und

arXiv – cs.LG