Prism: Reduziert kognitive Belastung bei LLMs durch komplexes Intent‑Verständnis

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Large Language Models (LLMs) werden zunehmend als web‑native Schnittstellen für soziale Plattformen eingesetzt. Dabei stehen Nutzer oft vor mehrdeutigen und sich schnell ändernden Zielen, sodass ein tiefes Verständnis komplexer Intentionen entscheidend für eine erfolgreiche Zusammenarbeit mit dem Modell ist. Traditionelle Ansätze klären Intentionen durch sequentielle oder parallele Fragen, vernachlässigen jedoch die logischen Abhängigkeiten zwischen diesen Fragen.

Prism ist ein neues Framework, das sich an der Cognitive Load Theory orientiert und die kognitive Belastung der Nutzer reduziert, indem es Intentionen logisch und effizient klärt. Das System besteht aus vier spezialisierten Modulen:

  • Intent‑Decomposition‑Modul: Zerlegt komplexe Nutzerintentionen in kleinere, gut strukturierte Elemente und ermittelt deren logische Abhängigkeiten.
  • Logische Klarstellungs‑Generierung: Ordnet Klärungsfragen nach diesen Abhängigkeiten, um zusammenhängende und reibungslose Interaktionen zu gewährleisten.
  • Intent‑Aware‑Reward‑Modul: Bewertet die Qualität von Klärungs­pfaden mit einer auf Intentionen abgestimmten Belohnungsfunktion und nutzt Monte‑Carlo‑Sampling, um große Mengen hochwertiger Trainingsdaten zu erzeugen.
  • Selbstentwickelndes Intent‑Tuning: Verfeinert die logische Klärungsfähigkeit des LLMs iterativ anhand datengetriebener Rückmeldungen und Optimierungen.

In umfangreichen Tests übertrifft Prism bestehende Methoden bei Klärungsinteraktionen, der Ausführung von Intentionen und der Reduktion der kognitiven Belastung. Damit bietet es einen vielversprechenden Ansatz, um die Zusammenarbeit zwischen Mensch und KI auf sozialen Plattformen intuitiver und effizienter zu gestalten.

Ähnliche Artikel