Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Preprint”
Forschung

<h1>Neue Forschung: Entscheidungswerte in Datenrepräsentationen systematisch erfasst</h1> <p>Ein kürzlich veröffentlichtes arXiv‑Preprint (2602.11295v1) präsentiert einen innovativen Ansatz zur Analyse, wie unterschiedliche Darstellungen derselben Daten zu unterschiedlichen Ergebnissen führen können. Der Autor zeigt, dass ein Rechen­motor, der auf verschiedenen Repräsentations­formen arbeitet, manchmal das gleiche Ergebnis liefert, andere­mal jedoch komplett abweicht.</p> <p>Um diese Phänomene zu dokumentie

arXiv – cs.AI
Forschung

<h1>LLMs kompaktieren: Schrittweise Reduktion ohne Leistungsverlust</h1> <p>Neues Verfahren aus dem arXiv-Preprint „Gradually Compacting Large Language Models for Reasoning Like a Boiling Frog“ zeigt, wie große Sprachmodelle ohne Qualitätsverlust deutlich kleiner gemacht werden können. Durch gezielte Reduktion der Parameter wird der Rechenaufwand für Inferenz drastisch gesenkt, während die Fähigkeit zum logischen Denken erhalten bleibt.</p> <p>Der Ansatz nutzt einen iterativen Prune‑Tune‑Loop (PTL), bei dem

arXiv – cs.LG