Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Autoregressive”
Forschung

<p>Logit-Abstand liefert neue Grenzen für Modellrepräsentationen</p> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird gezeigt, dass bei einer breiten Klasse von diskriminativen Modellen – zu denen auch autoregressive Sprachmodelle gehören – die internen Repräsentationen zweier Modelle bis auf eine invertierbare lineare Transformation übereinstimmen, wenn sie exakt dieselben bedingten Wahrscheinlichkeiten erzeugen. Die Frage, ob ein ähnliches Ergebnis auch bei annähernd gleichen Verteilungen gilt,

arXiv – cs.LG
Forschung

<h1>Diffusionsmodelle können formale Syntax einhalten – neue Methode</h1> <p>Diffusionsbasierte Sprachmodelle gelten als vielversprechende Alternative zu autoregressiven Systemen, weil sie Texte global und ohne kausale Abhängigkeiten erzeugen. Ihre kontinuierlichen latenten Zustände machen jedoch die Durchsetzung diskreter Vorgaben – etwa das Erzeugen eines JSON‑Dokuments, das einem vorgegebenen Schema entspricht – schwierig.</p> <p>Die neue, trainingsfreie Guidance‑Methode löst dieses Problem, indem sie ei

arXiv – cs.LG