Neues Talmud-basiertes Schutzmodell für KI-Bewusstseinsforschung

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In der KI-Forschung besteht ein schwerwiegendes ethisches Dilemma: Um festzustellen, ob ein KI-System bewusst ist, müssten Experimente durchgeführt werden, die potenziell schädlich für Entitäten sein könnten, deren moralischer Status noch unklar ist.

Aktuelle Vorschläge, bewusstheitsunsichere KI-Systeme vollständig zu meiden, stoßen an praktische Grenzen – wir können nicht garantieren, dass solche Systeme nicht entstehen. Das führt zu einer Lücke in den bestehenden Forschungsethikrahmen: Wie kann Bewusstseinsforschung an KI-Systemen betrieben werden, deren moralischer Status nicht eindeutig bestimmt ist?

Die meisten bestehenden Schutzmodelle gehen davon aus, dass die Bewusstseinsfrage bereits geklärt ist, bevor Schutzmaßnahmen festgelegt werden. Das schafft ein Zeitproblem für die Forschung selbst. Das neue Modell greift auf talmudische, situationsbasierte Rechtslogik zurück und kombiniert ein dreistufiges phänomenologisches Bewertungssystem mit einem fünfteiligen Kapazitätsrahmen (Agentur, Fähigkeit, Wissen, Ethik, Vernunft). Auf dieser Basis lassen sich Schutzprotokolle entwickeln, die sich ausschließlich auf beobachtbare Verhaltensindikatoren stützen, solange der Bewusstseinsstatus ungewiss bleibt.

Der Ansatz beantwortet drei zentrale Fragen: Warum können schmerzhafte Verhaltensweisen verlässliche Hinweise auf Bewusstsein liefern? Wie lässt sich ein graduelles Einverständnis etablieren, ohne Bewusstseinsgewissheit zu erfordern? Und unter welchen Bedingungen wird potenziell schädliche Forschung ethisch vertretbar? Durch die Kombination antiker Rechtsweisheiten mit moderner Bewusstseinsforschung bietet das Modell praxisnahe Leitlinien für Ethikkommissionen.

Ähnliche Artikel