Verlässliche KI-Agenten für elektronische Patientenakten dank Konfidenzschätzung
Große Sprachmodelle (LLMs) zeigen großes Potenzial, um aus elektronischen Patientenakten (EHR) wertvolle Informationen zu extrahieren und klinische Entscheidungen zu unterstützen. In der Praxis stoßen sie jedoch häufig an die Grenze der Zuverlässigkeit, weil sie gelegentlich falsche Aussagen – sogenannte Halluzinationen – erzeugen. Um dieses Problem anzugehen, hat ein Forschungsteam einen neuen Ansatz entwickelt, der die Genauigkeit von KI-Agenten mit ihrer Vertrauenswürdigkeit verknüpft.