Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Theoretisches Fundament”
Forschung

<p>Neural Scaling Laws vereint: Das Konzept der Effektiven Grenzen</p> <p>Ein neuer Beitrag auf arXiv präsentiert ein einheitliches Modell für die Skalierung von neuronalen Netzwerken. Die Autoren zeigen, wie sich die Testverlustfunktion mit zunehmender Modellkapazität, Datengröße und Rechenleistung verbessert und liefern dafür ein klar strukturiertes theoretisches Fundament.</p> <p>Bislang stützten sich die meisten Erklärungen auf spezifische Architekturen oder komplexe Kernelmethoden, was die allgemeine A

arXiv – cs.LG
Forschung

<p>Ein neues theoretisches Fundament erklärt, wie große Sprachmodelle (LLMs) aus kontinuierlichen Berechnungen strukturierte, symbolische Bedeutungen ableiten. In der kürzlich veröffentlichten Arbeit von ArXiv‑Studien (ArXiv:2512.05162v1) wird das Verhalten von LLMs als „Continuous State Machines“ (CSMs) modelliert – glatte dynamische Systeme, deren latente Zustandsräume sich unter probabilistischen Übergangsoperatoren entwickeln.</p>

Der Kern des Ansatzes ist der Transferoperator $P$, der die Verteilung semantischer „Masse“ über den Zustandsraum überträgt. Unter milden R…
arXiv – cs.AI
Forschung

<p>Die neue 4/δ‑Grenze liefert für LLM‑Verifikationssysteme ein solides theoretisches Fundament: Sie garantiert die Terminierung und Konvergenz jeder Iteration, solange die Fehler‑Reduktionswahrscheinlichkeit δ positiv ist. Der dazu entwickelte LLM‑Verifier‑Konvergenztheorem modelliert die Interaktion zwischen Sprachmodell und Verifikator als diskrete Zeit‑Markov‑Kette und zeigt, dass die erwartete Anzahl an Durchläufen höchstens 4/δ beträgt.</p>

Um die Theorie zu prüfen, wurden über 90.000 Simulationen durchgeführt. Alle Runs erreichten erfolgreich den Verified‑Zustand, und die geme…
arXiv – cs.AI