Hybrid-Explainable AI stärkt Vertrauen bei Muttergesundheitsrisiken in Bangladesch

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In Bangladesch, wo Ressourcen knapp sind, hat ein neues Forschungsprojekt gezeigt, dass ein hybrides erklärbares KI-Modell die Akzeptanz von Risikobewertungen in der Muttergesundheit deutlich erhöhen kann. Durch die Kombination von vorab definierten Fuzzy-Logikregeln mit nachträglichen SHAP-Erklärungen gelingt es, die Vorhersagen transparent und nachvollziehbar zu machen.

Das entwickelte Fuzzy‑XGBoost-Modell wurde auf 1 014 Geburtsakten trainiert und erreichte eine Genauigkeit von 88,67 % sowie einen ROC‑AUC‑Wert von 0,9703. Diese Zahlen belegen, dass die Technik nicht nur zuverlässig, sondern auch hochpräzise ist – ein entscheidender Faktor für den Einsatz in klinischen Umgebungen.

In einer Validierungsstudie mit 14 Gesundheitsexperten aus Bangladesch zeigte sich, dass 71,4 % der Befragten die hybride Erklärungsmethode gegenüber reinen Fuzzy‑Regeln bevorzugten. Etwa 55 % der Fachkräfte gaben an, dem Modell für den klinischen Einsatz zu vertrauen. Die SHAP‑Analyse identifizierte den Zugang zu Gesundheitsdiensten als wichtigsten Risikofaktor, während der von der Fuzzy‑Logik erzeugte Risikoscore als dritter wichtiger Indikator auftauchte und eine Korrelation von 0,298 mit dem klinischen Wissen aufwies.

Dennoch wiesen die Experten auf Lücken hin: fehlende Angaben zu Schwangerschaftsgeschichte, Gestationsalter und Verbindungsbarrieren. Diese Erkenntnisse unterstreichen, dass die Integration von klinisch relevanten Parametern in das Modell entscheidend ist, um die Akzeptanz weiter zu steigern. Das Ergebnis zeigt, dass erklärbare KI, die sowohl interpretable Regeln als auch Feature‑Importance‑Erklärungen bietet, ein vielversprechender Ansatz für die praktische Umsetzung in ressourcenbeschränkten Gesundheitssystemen ist.

Ähnliche Artikel