<p>Ein neues theoretisches Fundament erklärt, wie große Sprachmodelle (LLMs) aus kontinuierlichen Berechnungen strukturierte, symbolische Bedeutungen ableiten. In der kürzlich veröffentlichten Arbeit von ArXiv‑Studien (ArXiv:2512.05162v1) wird das Verhalten von LLMs als „Continuous State Machines“ (CSMs) modelliert – glatte dynamische Systeme, deren latente Zustandsräume sich unter probabilistischen Übergangsoperatoren entwickeln.</p>
Der Kern des Ansatzes ist der Transferoperator $P$, der die Verteilung semantischer „Masse“ über den Zustandsraum überträgt. Unter milden Regularitätsbedingungen – Kompaktheit, Ergodizität und beschränkter Jacobian – besitzt $P$ einen kompakten, diskreten Spektrumscharakter. Das daraus resultierende Semantic Characterization Theorem (SCT) zeigt, dass die führenden Eigenfunktionen von $P$ endlich viele „Spektralbasen“ bilden, die jeweils in einer o‑minimalen Struktur über ℝ definiert sind. Damit wird die Verbindung zwischen spektraler Lumpability und logischer Tame‑ness hergestellt und erklärt, wie aus kontinuierlicher Aktivierung ein endliches, logisch interpretierbares Ontologie‑Set entsteht.