LLM-basierte digitale Zwillinge: Fortschritt, aber Grenzen im Vertrauenssimulator

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der Forschung zum Gesundheitswesen rücken Large‑Language‑Model‑basierte digitale Zwillinge immer stärker in den Fokus. Sie versprechen, komplexe menschliche Verhaltensmuster zu simulieren – doch wie gut gelingt es ihnen, psychologische Nuancen wie Misstrauen gegenüber dem Gesundheitssystem abzubilden?

Die aktuelle Studie nutzt den Twin‑2K‑500‑Datensatz und bewertet die Simulationsergebnisse anhand der Health Care System Distrust Scale (HCSDS). Durch einen systematischen Vergleich mit einer Stichprobe echter Personen wurden item‑weise Verteilungen, Zusammenfassungsstatistiken und demografische Muster analysiert.

Ergebnisse zeigen, dass die simulierten Antworten deutlich zentraler liegen, eine geringere Streuung aufweisen und selten extreme Optionen wählen – ein signifikanter Unterschied (p < 0.001). Während die digitalen Zwillinge die großen demografischen Trends (Alter, Geschlecht) gut reproduzieren, fehlt ihnen die Feinfühligkeit, kleinere Unterschiede in Bildungsstufen zu erfassen. Sie sind also gut geeignet, um Bevölkerungs­trends abzubilden, jedoch weniger präzise bei der Unterscheidung spezifischer Untergruppen.

Die Untersuchung unterstreicht, dass LLM‑basierte digitale Zwillinge noch nicht vollständig in der Lage sind, komplexe menschliche Einstellungen akkurat zu modellieren. Vor einer breiten Anwendung in inferenziellen Analysen sind daher sorgfältige Kalibrierung und Validierung unerlässlich. Dennoch bleibt die Technologie ein vielversprechender Ansatz, der mit weiteren Optimierungen das Potenzial hat, die Forschung im Gesundheitswesen nachhaltig zu verändern.

Ähnliche Artikel