Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “autoregressive Sprachmodelle”
Forschung

<p>Logit-Abstand liefert neue Grenzen für Modellrepräsentationen</p> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird gezeigt, dass bei einer breiten Klasse von diskriminativen Modellen – zu denen auch autoregressive Sprachmodelle gehören – die internen Repräsentationen zweier Modelle bis auf eine invertierbare lineare Transformation übereinstimmen, wenn sie exakt dieselben bedingten Wahrscheinlichkeiten erzeugen. Die Frage, ob ein ähnliches Ergebnis auch bei annähernd gleichen Verteilungen gilt,

arXiv – cs.LG
Forschung

<p>LLM generiert CAD STEP-Modelle aus Text – neue Technik verbessert Fertigung</p> <p>Die Erstellung von CAD-Modellen bleibt ein arbeitsintensiver Prozess, der Fachwissen erfordert. Mit dem neuen Ansatz STEP‑LLM können auch Nicht‑Experten ihre Designideen in fertige, maschinenlesbare STEP‑Dateien umsetzen. STEP ist das branchenweit akzeptierte, neutrale Format für den Austausch von Produktdaten, doch seine graph‑strukturierte, verknüpfte Natur stellt herkömmliche autoregressive Sprachmodelle vor große Herau

arXiv – cs.AI
Forschung

Pixelbasierte Sprachmodelle stärken Robustheit gegen orthografische Angriffe Autoregressive Sprachmodelle leiden bei orthografischen Angriffen stark unter, wenn Eingabetexte mit Zeichen aus verschiedenen Alphabetsystemen verfälscht werden. Das Problem liegt vor allem an der Out‑of‑Vocabulary‑Hürde, die bei subword‑Tokenisierern und ihren Einbettungen entsteht. Um dieser Schwäche entgegenzuwirken, schlägt die neue Studie einen pixelbasierten generativen Ansatz vor. Dabei werden Wörter als einzelne Bilder

arXiv – cs.AI