LLMs: Mehrsprachigkeit im Zero-Shot-Test mit italienischen Gesundheitsdaten
Large Language Models (LLMs) haben sich zu einem zentralen Thema in der KI und im NLP entwickelt und verändern Branchen wie Gesundheitswesen, Finanzen, Bildung und Marketing. Sie verbessern Kundenservice, automatisieren Aufgaben, liefern Einblicke, optimieren Diagnosen und personalisieren Lernprozesse.
Die Extraktion von Informationen aus klinischen Aufzeichnungen ist ein entscheidender Schritt in der digitalen Gesundheitsversorgung. Traditionelle NLP-Methoden stoßen hier oft an ihre Grenzen, weil klinische Sprache komplex, variabel und semantisch dicht ist. LLMs bieten dagegen eine vielversprechende Alternative, da sie menschenähnlichen Text verstehen und generieren können.
In der vorliegenden Studie wird untersucht, wie gut Open-Source-Mehrsprachige LLMs italienische elektronische Gesundheitsakten (EHR) in Echtzeit interpretieren und relevante Daten extrahieren können. Die Autoren führen eine umfangreiche Experimentreihe zur Komorbiditäts‑Extraktion durch und vergleichen die Ergebnisse mit klassischen Pattern‑Matching‑Ansätzen sowie manuellen Annotationsarbeiten.
Die Ergebnisse zeigen, dass einige LLMs in Zero‑Shot‑Szenarien und On‑Premises‑Umgebungen noch Schwierigkeiten haben. Andere Modelle weisen erhebliche Leistungsunterschiede auf und können nicht zuverlässig über verschiedene Krankheitsbereiche hinweg generalisieren. Im Vergleich dazu liefern native Pattern‑Matching‑Methoden und menschliche Anmerkungen konsistentere Ergebnisse.
Die Arbeit unterstreicht, dass die Mehrsprachigkeit von LLMs noch nicht vollständig ausgereift ist und gezielte Optimierungen erforderlich sind, bevor sie in kritischen Gesundheitsanwendungen breit eingesetzt werden können.