MHDash: Plattform für KI-Assistenten im psychischen Gesundheitsbereich

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der rasanten Entwicklung von Sprachmodellen wird die sichere Erkennung von Hochrisikosituationen – etwa Suizidgedanken oder Selbstverletzungsabsichten – immer wichtiger. Traditionelle Bewertungsmetriken verbergen jedoch oft die entscheidenden Fehler, die in realen, mehrschichtigen Gesprächen auftreten können.

Hier kommt MHDash ins Spiel: eine Open‑Source-Plattform, die die komplette Pipeline von Datensammlung über strukturierte Annotation bis hin zur Generierung von Mehrfachdialogen und Basisbewertung vereint. Durch die Möglichkeit, mehrere Dimensionen wie Risikostufe, Gesprächsabsicht und Bedenkenart zu markieren, liefert MHDash eine detaillierte, risikobewusste Analyse.

Die ersten Tests zeigen, dass einfache Baselines und moderne LLM‑APIs zwar ähnliche Gesamtgenauigkeiten erreichen, sich jedoch stark bei Hochrisikofällen unterscheiden. Einige Modelle bewahren die relative Schwereordnung, klassifizieren aber absolute Risiken schlecht, während andere gute Gesamtergebnisse liefern, aber bei schweren Kategorien hohe Fehlraten aufweisen. In mehrschichtigen Dialogen verschärfen sich diese Unterschiede, weil Risikosignale allmählich auftauchen.

Diese Erkenntnisse verdeutlichen, dass herkömmliche Benchmarks für sicherheitskritische Anwendungen im psychischen Gesundheitsbereich unzureichend sind. Durch die Veröffentlichung von MHDash als Open‑Source-Plattform will die Forschung eine reproduzierbare und transparente Grundlage schaffen, um KI‑Assistenten sicherer und verantwortungsvoller zu entwickeln.

Ähnliche Artikel