UniCog enthüllt kognitive Fähigkeiten von LLMs durch latentes Mind‑Space‑Analyse

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem Bereich der künstlichen Intelligenz hat gezeigt, dass die kognitiven Prozesse großer Sprachmodelle (LLMs) grundlegend anders funktionieren als die menschlichen. Trotz zahlreicher Fortschritte in der Interpretierbarkeit bleiben die genauen Mechanismen, die bei der Problemlösung von LLMs aktiv werden, bislang unklar.

Das Forschungsprojekt „UniCog“ präsentiert einen einheitlichen Ansatz, der die Kognition von LLMs über einen latenten „Mind‑Space“ untersucht. Durch ein latentes Variablenmodell werden die vielfältigen Fähigkeiten, die in den dichten Aktivierungen der Modelle verborgen sind, in spärliche, entangled latente Dimensionen überführt. Auf Basis von Analysen an sechs hochentwickelten Modellen – darunter DeepSeek‑V3.2 und GPT‑4o – wird ein Pareto‑Prinzip der LLM‑Kognition aufgedeckt: ein gemeinsamer Denkkern wird durch fachspezifische Signaturen ergänzt.

Ein weiteres Ergebnis der Untersuchung ist, dass Fehler bei der Argumentation häufig als ungewöhnlich hohe Intensität in den latenten Aktivierungen sichtbar werden. Diese Erkenntnisse eröffnen ein neues Paradigma für die Analyse von LLMs und liefern eine kognitionsbasierte Sicht auf die Dynamik des Denkens. Darüber hinaus wird eine latenzinformierte Kandidatenpriorisierung vorgestellt, die die Leistung bei anspruchsvollen Benchmarks um bis zu 7,5 % steigert.

Der komplette Code der Studie ist auf GitHub verfügbar: https://github.com/milksalute/unicog.

Ähnliche Artikel