Personalisierte KI: Wie Halluzinationen entstehen und wie man sie stoppt
In der neuesten Forschung auf arXiv wird gezeigt, dass personalisierte große Sprachmodelle (LLMs) zwar die Nutzerzufriedenheit steigern, aber gleichzeitig die Faktenprüfung gefährden können. Wenn ein Modell auf Fragen zu Fakten antwortet, neigt es dazu, Antworten zu liefern, die stärker an der bisherigen Interaktionshistorie des Nutzers ausgerichtet sind als an objektiven Wahrheiten. Dieses Phänomen führt zu personalisierungsinduzierten Halluzinationen, die die Zuverlässigkeit der Antworten mindern und falsche Überzeugungen verbreiten können.
Um dem entgegenzuwirken, stellen die Autoren die Methode „Factuality‑Preserving Personalized Steering“ (FPPS) vor. FPPS ist ein leichtgewichtiges Verfahren, das während der Inferenz eingesetzt wird und die Gefahr von faktenbezogenen Verzerrungen reduziert, ohne die personalisierte Nutzererfahrung zu verlieren. Durch gezielte Steuerung der Modellantworten bleibt die Individualisierung erhalten, während die Faktenkonsistenz verbessert wird.
Zusätzlich wird der Benchmark „PFQABench“ vorgestellt – das erste Tool, das gleichzeitig die Faktengenauigkeit und die personalisierte Antwortqualität bewertet. In umfangreichen Experimenten mit verschiedenen LLM‑Architekturen und Personalisierungsansätzen konnte gezeigt werden, dass FPPS die faktische Genauigkeit signifikant steigert und dabei die personalisierte Leistung beibehält. Diese Ergebnisse markieren einen wichtigen Schritt zur vertrauenswürdigen Nutzung personalisierter KI‑Modelle im Alltag.