KI-Systeme können unsicher sein – neue Forschungsergebnisse
Eine neue Studie auf arXiv beleuchtet, ob und wie KI‑Systeme Unsicherheit erkennen und ausdrücken können. Durch einen funktionalistischen und verhaltensorientierten Ansatz analysiert die Arbeit, wie symbolische, neuronale und hybride Architekturen Raum für Unsicherheit schaffen.
Der Artikel trennt zwei Arten von Unsicherheit: epistemische, die aus unvollständigen Daten oder Informationen resultiert, und subjektive, die die eigene Haltung des Systems widerspiegelt. Weiter wird zwischen verteilten und diskreten Formen subjektiver Unsicherheit unterschieden.
Besonders spannend ist die Erkenntnis, dass manche Unsicherheitszustände nicht als klassische Aussagen, sondern als Fragen formuliert werden können – ein neues Konzept, das die Art und Weise, wie KI mit Unsicherheit umgeht, grundlegend erweitert.
Die Ergebnisse legen nahe, dass zukünftige KI‑Modelle nicht nur Fakten, sondern auch Zweifel und Fragen in ihre Entscheidungsprozesse einbauen können, was die Transparenz und Vertrauenswürdigkeit von KI-Systemen deutlich steigern dürfte.