RETINA‑SAFE & ECRT: Bessere Risikobewertung bei medizinischen LLMs
Halluzinationen in medizinischen Großen Sprachmodellen (LLMs) stellen ein zentrales Sicherheitsproblem dar, insbesondere wenn die vorhandenen Beweise unzureichend oder widersprüchlich sind. In einer neuen Studie wird di…
- Halluzinationen in medizinischen Großen Sprachmodellen (LLMs) stellen ein zentrales Sicherheitsproblem dar, insbesondere wenn die vorhandenen Beweise unzureichend oder w…
- In einer neuen Studie wird dieses Problem im Kontext der diabetischen Retinopathie untersucht.
- Das neu entwickelte Benchmark RETINA‑SAFE umfasst 12 522 Stichproben und ist in drei evidenzbasierte Aufgaben gegliedert: E‑Align (evidenzkonform), E‑Conflict (evidenzko…
Halluzinationen in medizinischen Großen Sprachmodellen (LLMs) stellen ein zentrales Sicherheitsproblem dar, insbesondere wenn die vorhandenen Beweise unzureichend oder widersprüchlich sind. In einer neuen Studie wird dieses Problem im Kontext der diabetischen Retinopathie untersucht.
Das neu entwickelte Benchmark RETINA‑SAFE umfasst 12 522 Stichproben und ist in drei evidenzbasierte Aufgaben gegliedert: E‑Align (evidenzkonform), E‑Conflict (evidenzkonflikt) und E‑Gap (evidenzmangel). Damit bietet es eine solide Grundlage, um die Fähigkeit von LLMs zur Beweisorientierung zu testen.
Zur Risikobewertung wurde das zweistufige White‑Box-Framework ECRT (Beweisorientierte Risikobewertung) vorgestellt. In Phase 1 erfolgt eine Sicher/Unsicher‑Triage, während Phase 2 unsichere Fälle in kontradiktorische Risiken und evidenzbasierte Lücken unterteilt. Das System nutzt interne Repräsentationen und Logit‑Schiebungen unter CTX/NOCTX‑Bedingungen und wird mit klassenbalanciertem Training robust trainiert.
In experimentellen Tests über mehrere Backbones hinweg liefert ECRT eine signifikante Verbesserung der Stage‑1‑Balanced‑Accuracy um +0,15 bis +0,19 gegenüber externen Unsicherheits- und Selbstkonsistenz‑Baselines sowie um +0,02 bis +0,07 gegenüber dem stärksten angepassten Supervised‑Baseline. Zudem übertrifft es konsequent ein einstufiges White‑Box‑Ablation‑Modell.
Die Ergebnisse zeigen, dass interne Signale, die auf retinalen Beweisen basieren, einen praktikablen Weg zu interpretierbaren Risikobewertungen in medizinischen LLMs eröffnen und damit die Sicherheit und Zuverlässigkeit dieser Systeme erhöhen.
Welche Linse du auf diese Meldung legen solltest
LLMs sind Sprachmodelle, die Text verstehen, erzeugen und in Produkte eingebettet werden.
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst auf Modellqualitaet, Kosten pro Nutzung und darauf, ob echte Produktverbesserungen oder nur Benchmarks kommuniziert werden.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.