Künstliche Intelligenz muss Menschen verstehen: Mindestanforderung für Kontrolle

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Moderne KI‑Systeme liefern zunehmend fließende, korrekte Ergebnisse, doch gleichzeitig verlieren Nutzer die Fähigkeit, diese Entscheidungen zu erklären, zu prüfen oder einzugreifen. Dieses Phänomen wird als Capability‑Comprehension Gap bezeichnet – ein Abspalten, bei dem die Leistungsfähigkeit der KI steigt, während das interne Verständnis der Anwender abnimmt.

Die aktuelle Forschung zeigt, dass herkömmliche Ansätze zu Transparenz, Nutzerkontrolle, Bildung und Governance nicht die grundlegende Einsicht liefern, die Menschen benötigen, um bei einer dauerhaften KI‑Delegation verantwortungsbewusst zu handeln. Darauf aufbauend wird der Cognitive Integrity Threshold (CIT) definiert: die minimale Verständnisebene, die erforderlich ist, um Aufsicht, Autonomie und partizipative Verantwortung unter KI‑Unterstützung zu gewährleisten.

Der CIT verlangt keine vollständige Rekonstruktion der KI‑Logik, schränkt jedoch die Automatisierung nicht ein. Er markiert den Punkt, ab dem die Aufsicht lediglich noch prozedural wird und die Möglichkeit zur Anfechtung verloren geht. Durch drei funktionale Dimensionen – Verifizierungsfähigkeit, verständnisbewahrende Interaktion und institutionelle Governance‑Rahmen – lässt sich der CIT konkret umsetzen.

Diese Erkenntnisse legen eine klare Design‑ und Governance‑Agenda nahe, die die Interaktion zwischen Mensch und KI in verantwortungskritischen Bereichen an die Prinzipien der kognitiven Nachhaltigkeit anpasst. Ziel ist es, sicherzustellen, dass Menschen trotz zunehmender KI‑Unterstützung ihre Überwachungs- und Entscheidungsbefugnisse behalten.

Ähnliche Artikel