Kognitive Unvollkommenheit rettet KI: Framework simuliert menschliche Fehler

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

In der KI‑Forschung hat sich die Nutzung synthetischer Daten als Allheilmittel etabliert. Doch das gängige Produktionsmodell, das auf statistischer Glätte optimiert, entfernt systematisch die langen Schwänze und kognitiv geprägten Unregelmäßigkeiten, die menschliche Texte auszeichnen. Diese Überoptimierung führt zu einer beschleunigten Modell‑Kollaps‑Rate, wenn Modelle über längere Zeiträume damit trainiert werden.

Um diesem Problem entgegenzuwirken, präsentiert die Studie ein Paradigmenwechsel: statt die Oberflächenmerkmale von Daten zu imitieren, simuliert das neue Prompt‑Driven Cognitive Computing Framework (PMCSF) die kognitiven Prozesse, die menschliche Texte erzeugen. Im Kern steht der Cognitive State Decoder (CSD), der unstrukturierte Texte in strukturierte kognitive Vektoren zurückverwandelt, und der Cognitive Text Encoder (CTE), der diese Zustände mithilfe mathematisch definierter Cognitive Perturbation Operators in Texte mit authentischen menschlichen Fehlern umsetzt.

Die Wirksamkeit des Frameworks wurde in einem zweistufigen Evaluationspipeline nachgewiesen. Zunächst zeigte die kognitive Codec‑Verifikation, dass CTE‑Texte einen Jensen‑Shannon‑Divergenzwert von 0,0614 im Vergleich zu menschlichen Texten erreichten – deutlich besser als die 0,4431, die Standard‑LLM‑Ausgaben erzielen. Zusätzlich bestand die Ausgabe die doppelt‑blinde professionelle Medienprüfung und erzielte einen Intraclass‑Correlation‑Coefficient (ICC) von über 0,9 für die kognitive Profil‑Ausrichtung über heterogene Modelle hinweg. In der zweiten Stufe, den funktionalen Gewinntests, bewiesen isomorphe Stress‑Tests am A‑Share‑Markt, dass Strategien, die CTE‑generierte Daten nutzen, den maximalen Drawdown während der Crash‑Phase 2015 um 47,4 % senken und einen defensiven Alpha von 8,6 % liefern – ein Ergebnis, das die Transaktionskosten deutlich übertrifft.

Ähnliche Artikel