Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “EVO”
Forschung

<h1>Harmonische Datensatz‑Distillation revolutioniert Zeitreihenprognosen</h1> <p>Die Vorhersage von Zeitreihen steht heute vor enormen Rechen- und Speicheraufwand, weil reale Datensätze immer größer werden. Dataset‑Distillation (DD) bietet eine Lösung, indem sie einen kompakten Datensatz erzeugt, der das Training genauso gut wie das Original ermöglicht. Traditionelle DD‑Ansätze sind jedoch für Zeitreihen nicht optimiert, leiden unter architektonischem Overfitting und skaliert schlecht.</p> <p>Um diese Prob

arXiv – cs.LG
Forschung

<p>Temporal imbalance erklärt Bias bei Class-Incremental Learning</p> <p>Mit der zunehmenden Verbreitung von Deep‑Learning in Bildverarbeitungsaufgaben gewinnt das Paradigma des Class‑Incremental Learning (CIL) immer mehr an Bedeutung. Dabei steht die Herausforderung des „catastrophic forgetting“ im Fokus: Modelle neigen dazu, neue Klassen zu bevorzugen und die Leistung auf älteren Klassen zu verlieren. Bisher wurde dieser Bias vor allem auf ein Ungleichgewicht innerhalb einzelner Aufgaben zurückgeführt und

arXiv – cs.LG