Bewertungsschwierigkeiten in Medizin: KI-Modelle berücksichtigen Unsicherheit Eine neue Studie, veröffentlicht auf arXiv (2601.05500v1), zeigt, dass die Bewertung von KI-Systemen – darunter große Sprachmodelle (LLMs) und Bildverarbeitungsmodelle – häufig die Unsicherheit in den Expertenantworten ignoriert. In der Medizin, wo Unsicherheit allgegenwärtig ist, kann das zu falschen Schlussfolgerungen führen. Die Autoren führen ein probabilistisches Paradigma ein, das erklärt, warum hohe Zuverlässigkeit der

arXiv – cs.AI Original
Anzeige