ASR-Modelle im deutschen Medizinkontext: Benchmark zeigt Leistungsunterschiede
Die automatische Spracherkennung (ASR) birgt enormes Potenzial, die Arbeitsbelastung von medizinischem Personal zu verringern – etwa durch die Automatisierung von Dokumentationsaufgaben. Trotz zahlreicher Benchmarks für Englisch fehlt bislang eine gründliche Bewertung deutscher medizinischer Sprachdaten, insbesondere wenn Dialekte berücksichtigt werden.
In der vorliegenden Studie wurde ein sorgfältig kuratiertes Datenset aus simulierten Arzt‑Patienten‑Gesprächen zusammengestellt. Insgesamt wurden 29 ASR‑Modelle getestet, darunter Open‑Source‑Modelle aus den Whisper-, Voxtral- und Wav2Vec2‑Familien sowie führende kommerzielle APIs wie AssemblyAI und Deepgram.
Die Bewertung erfolgte anhand dreier etablierter Metriken: Word Error Rate (WER), Character Error Rate (CER) und BLEU. Zusätzlich wurde eine qualitative semantische Analyse angestrebt, um die Verständlichkeit der erkannten Texte zu prüfen.
Die Ergebnisse zeigen deutliche Leistungsunterschiede: Die besten Systeme erreichen bereits sehr niedrige WER‑Werte von unter 3 %. Andere Modelle, insbesondere bei medizinischer Terminologie oder dialektisch beeinflussten Varianten, weisen deutlich höhere Fehlerquoten auf.
Diese Erkenntnisse unterstreichen die Notwendigkeit, ASR‑Modelle gezielt auf den deutschen medizinischen Kontext abzustimmen. Zukünftige Forschung sollte sich darauf konzentrieren, die Robustheit gegenüber Fachbegriffen und regionalen Sprachvarianten zu erhöhen, um die Akzeptanz und Effizienz in der Praxis weiter zu steigern.