DAMI: Dynamische Modellinterpolation kombiniert System 1 und System 2

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer kürzlich veröffentlichten Studie wird die neue Methode DAMI vorgestellt, die die Stärken von System 1 (intuitiv) und System 2 (überlegt) in einem einheitlichen Sprachmodell vereint. Durch die dynamische Interpolation vorhandener Instruct‑ und Thinking‑Checkpoints kann das Modell ohne zusätzliche Trainingsschritte seine kognitive Tiefe an die jeweilige Aufgabe anpassen.

Traditionell konzentrierten sich Ansätze auf die Kontrolle der Ausgabe, was die Vielfalt der generierten Inhalte einschränkte. DAMI hingegen steuert die „Kognitive Intensität“ – also, wie tief das Modell überlegt – und nutzt dafür einen query‑spezifischen Parameter λ(q). Dieser wird entweder über ein Präferenz‑Lernverfahren, das Genauigkeit und Effizienz abwägt, oder in einem Zero‑Shot‑Modus anhand der internen Diskrepanz zwischen den beiden Systemen geschätzt.

Die Experimente, die fünf mathematische Denk‑Benchmarks abdeckten, zeigen, dass DAMI die Genauigkeit des reinen Thinking‑Modells übertrifft, dabei aber die Effizienz beibehält. Damit demonstriert die Methode, dass die Kombination von System 1 und System 2 durch gezielte Kapazitätssteuerung zu leistungsfähigeren und gleichzeitig ressourcenschonenderen Sprachmodellen führen kann.

Ähnliche Artikel