Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Noi”
Forschung

<p>LLMs enthüllen: Latente semantische Manifeste erklären Token‑Mismatch</p> <p>Neues Forschungspapier aus dem arXiv‑Repository präsentiert ein mathematisches Modell, das die inneren Rechenräume großer Sprachmodelle (LLMs) als latente semantische Manifeste interpretiert. Diese Manifeste sind Riemannsche Untermanifeste, die mit dem Fisher‑Information‑Metrik ausgestattet sind. Die Tokens, die die Modelle ausgeben, entsprechen dabei Voronoi‑Regionen, die das Manifold partitionieren.</p> <p>Im Fokus steht die s

arXiv – cs.LG
Forschung

Monte-Carlo-Sampler verbessert Diffusionsmodelle: Neue Methode steigert Qualität Auf der Plattform arXiv wurde ein neuer Ansatz vorgestellt, der die Leistung von stochastischen Differentialgleichungsmodellen (SDE) in der bedingten Generierung deutlich verbessert. Der Beitrag beschreibt, wie ein zusätzlicher Rückwärts-Denoising-Schritt in Kombination mit Monte-Carlo-Sampling – kurz ABMS – die Genauigkeit der Gradienten für die Guidance erhöht und damit die Konsistenz der generierten Ergebnisse steigert.

arXiv – cs.LG