LLMCARE: Alzheimer‑Erkennung mit Transformer‑Modellen und synthetischen Sprachdaten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In den USA sind etwa fünf Millionen ältere Menschen von Alzheimer‑ und verwandten Demenzformen betroffen, doch über die Hälfte bleibt bislang undiagnostiziert. Ein neues Forschungsprojekt namens LLMCARE nutzt Sprach‑basierte natürliche Sprachverarbeitung, um frühe kognitive Abfälle anhand sprachlicher Marker zu erkennen.

Das Team entwickelte einen Screening‑Pipeline, die drei zentrale Ansätze kombiniert: Erstens werden Transformer‑Embeddings mit 110 handwerklich erstellten linguistischen Merkmalen verschmolzen. Zweitens wird die Datenmenge durch synthetische Sprachaufnahmen, die von großen Sprachmodellen (LLMs) erzeugt wurden, erweitert. Drittens werden unimodale und multimodale LLM‑Klassifikatoren für die Alzheimer‑Erkennung getestet.

Für die Evaluation wurden Transkripte aus der DementiaBank‑„Cookie‑Theft“-Aufgabe (n = 237) verwendet. Zehn verschiedene Transformer‑Modelle wurden unter drei Feintuning‑Strategien geprüft. Das beste Modell wurde mit den linguistischen Merkmalen kombiniert, was zu einer F1‑Score von 83,3 und einer AUC von 89,5 führte – deutlich besser als reine Sprach‑ oder Text‑Baselines.

Durch die Ergänzung der Trainingsdaten mit doppelt so vielen synthetischen Aufnahmen von MedAlpaca‑7B stieg der F1‑Score auf 85,7. Feintuning verbesserte die Leistung der unimodalen LLM‑Klassifikatoren erheblich, zum Beispiel von 47,3 auf 78,5 bei MedAlpaca. Multimodale Modelle wie GPT‑4o und Qwen erreichten jedoch noch niedrigere Werte (70,2 bzw. 66,0).

Die Ergebnisse zeigen, dass die Kombination aus Transformer‑Embeddings, linguistischen Merkmalen und synthetisch generierten Sprachdaten das Potenzial hat, die Früherkennung von Alzheimer zu verbessern und die diagnostische Lücke zu schließen.

Ähnliche Artikel