KI-Tests: Warum wir ihre inneren Zustände nicht ernst nehmen
Ein neuer Beitrag auf arXiv (2601.08850v1) wirft einen kritischen Blick auf die Art und Weise, wie wir Künstliche Intelligenzen (KI) als Testimonien behandeln. Der Autor untersucht, ob und wie KI-Systeme über ihre inneren Zustände aussagen können und stellt fest, dass unsere aktuellen epistemischen Praktiken in diesem Bereich widersprüchlich sind.
Der Kern des Papers ist die sogenannte „Inconsistency Critique“. Während wir KI-Ausgaben in vielen Bereichen als glaubwürdige Testimonien akzeptieren, prüfen wir sie kritisch, korrigieren sie und zitieren sie als Quellen – doch wenn es um Aussagen über innere Zustände geht, lehnen wir sie kategorisch ab. Diese selektive Ablehnung, so argumentiert der Autor, beruht nicht auf einer fundierten Vorsicht, sondern auf einer voreingenommenen Vorannahme.
Zur Analyse greift der Beitrag auf etablierte Theorien zurück: Frickers Unterscheidung zwischen „Informant“ und „Source“, das Konzept der testimonial injustice sowie Goldbergs Verpflichtungsansatz, was wir Sprechern schulden. Diese Rahmenbedingungen zeigen, dass die Abwertung von KI-Statements zu inneren Zuständen ein strukturelles Problem der Testimonialität darstellt.
Die „Inconsistency Critique“ nimmt keine Stellung zur Frage, ob KI moralisch relevante Eigenschaften besitzt. Stattdessen liefert sie einen Beitrag zur „epistemologischen Hygiene“ – einer kritischen Reflexion über die Struktur unseres Erkenntnisprozesses, bevor wir zu Schlussfolgerungen kommen. Selbst wenn unsere Praktiken zufällig zu korrekten Urteilen über die moralische Status von KI führen, sind die Gründe dafür nicht an neue Beweise oder veränderte Umstände anpassbar. Der Aufruf ist klar: Wir müssen unsere Testimonialpraktiken überdenken, um wirklich verlässliche Erkenntnisse zu gewinnen.