Erklärbarkeit von Algorithmen: Weg aus der Black-Box-Ära
Die Undurchsichtigkeit vieler komplexer Machine‑Learning‑Algorithmen gilt als eines der größten Hindernisse für die ethische Entwicklung von künstlicher Intelligenz. Besonders bei neuronalen Netzwerken, die riesige Datenmengen in mehreren verborgenen Schichten verarbeiten, bleibt das Innenleben für Menschen – auch für die Entwickler – praktisch unerreichbar. Diese Systeme wirken für alle Beteiligten wie schwarze Boxen.
Opaquität entsteht jedoch nicht nur durch technische Komplexität. Oft wird die Funktionsweise von Algorithmen aus geschäftlichen Gründen absichtlich verschleiert, etwa in kommerziellen automatisierten Entscheidungssystemen. Diese Art der Verschleierung führt zu einer völlig anderen Form der Undurchsichtigkeit, die ebenfalls ethische Fragen aufwirft.
Der erste Teil der Arbeit untersucht diese beiden Formen der Opaquität und die daraus resultierenden ethischen Implikationen. Im zweiten Teil werden die verschiedenen Erklärungsansätze aus der Informatik vorgestellt, die darauf abzielen, die technische Undurchsichtigkeit von KI-Systemen zu überwinden. Die Analyse zeigt, dass die erklärbare KI (XAI) trotz Fortschritten noch mit zahlreichen Herausforderungen konfrontiert ist.