Hybrid-Ansatz: Genauigkeit vs. Normalisierung bei NLP-Extraktion Daten

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus Polen beleuchtet, wie sich die Genauigkeit von NLP-Methoden mit der Notwendigkeit der Textnormalisierung abwägen lässt. Die Forscher untersuchten die Extraktion von Patienteninformationen aus elektronischen Gesundheitsakten des Voivodeship Rehabilitation Hospital for Children in Ameryka.

Im Vergleich standen ressourcenschonende, regelbasierte Ansätze gegen große Sprachmodelle (LLMs). Beide Methoden wurden auf die Erfassung von Patientendemografie, klinischen Befunden und verschriebenen Medikamenten getestet.

Die Ergebnisse zeigen, dass regelbasierte Systeme besonders präzise bei der Erfassung von Alter und Geschlecht sind. LLMs hingegen glänzen bei der Erkennung von Medikamentennamen. Zusätzlich wurde die Leistung der LLMs bei Originaltexten in Polnisch und deren englischer Übersetzung untersucht, wobei die Übersetzung zu einem Verlust wichtiger Informationen führte.

Die Studie unterstreicht die Kompromisse zwischen Genauigkeit, Normalisierung und Rechenaufwand, die bei der Implementierung von NLP im Gesundheitswesen berücksichtigt werden müssen.

Die Autoren plädieren für hybride Modelle, die die Präzision regelbasierter Systeme mit der Flexibilität von LLMs kombinieren, um zuverlässige und ressourcenschonende klinische NLP-Lösungen zu ermöglichen.

Ähnliche Artikel