Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Generalisierung”
Forschung

<p>LLMs meistern Mehrstufige Theoremvorhersage dank struktureller Priors</p> <p>In der automatisierten Beweistechnik stellt die Vorhersage von mehrstufigen Theoremen eine zentrale Herausforderung dar. Traditionelle neuronale‑symbolische Ansätze setzen stark auf überwachungsbasierte, parametrisierte Modelle, die jedoch bei sich wandelnden Theorem-Bibliotheken nur begrenzte Generalisierung zeigen. In einer neuen Studie wird ein komplett trainingsfreier Ansatz vorgestellt, der auf In‑Context‑Learning (ICL) bas

arXiv – cs.AI
Forschung

Full-Waveform-Inversion (FWI) ist ein hochkomplexes, nichtlineares Problem, das versucht, Untergrundgeschwindigkeitskarten aus an der Oberfläche aufgezeichneten seismischen Wellen zu rekonstruieren. Traditionell wurden datengetriebene FWI-Methoden mit kleinen Modellen trainiert, weil verfügbare Datensätze begrenzte Volumen, geologische Vielfalt und räumliche Ausdehnung aufweisen. Diese Beschränkungen führten zu erheblichen Bedenken hinsichtlich Overfitting und einer schlechten Generalisierung auf realistisc

In der vorliegenden Studie wird gezeigt, dass ein Modell, das ausschließlich auf simulierten und relativ einfachen Daten trainiert wurde, e…
arXiv – cs.LG