AI-Forschung im Spagat: Sicherheit und Ethik bleiben getrennte Welten
Eine neue Analyse aus dem arXiv-Repository zeigt, dass die Forschung zu künstlicher Intelligenz (KI) in zwei stark getrennte Strömungen aufgespalten ist: die Sicherheitsforschung, die sich mit skalierbarer Intelligenz, Täuschungsverhalten und existenziellen Risiken beschäftigt, und die Ethikforschung, die aktuelle Schäden, soziale Vorurteile und Produktionsfehler untersucht. Trotz gemeinsamer Bedenken hinsichtlich unzureichender Investitionen in die Ausrichtung von KI-Systemen, unterscheiden sich die beiden Gemeinschaften grundlegend in ihrer Definition von „Alignment“ und in ihren Forschungsansätzen.
Die Studie stützt sich auf eine bibliometrische und Ko-Autoren-Netzwerkanalyse von 6.442 Publikationen aus zwölf führenden Machine‑Learning‑ und Natural‑Language‑Processing‑Konferenzen zwischen 2020 und 2025. Dabei wurde festgestellt, dass mehr als 80 % der Kooperationen innerhalb der jeweiligen Sicherheits- oder Ethik‑Community stattfinden. Die Verbindungen zwischen den beiden Feldern sind stark konzentriert: lediglich rund 5 % der Arbeiten erzeugen über 85 % der Brückenlinks. Wenn man diese wenigen „Brückenbauer“ entfernt, verschärft sich die Trennung deutlich, was darauf hinweist, dass die interdisziplinäre Zusammenarbeit von einer kleinen Gruppe von Akteuren abhängt.
Die Ergebnisse verdeutlichen, dass die Kluft zwischen Sicherheits- und Ethikforschung nicht nur konzeptionell, sondern auch institutionell verankert ist. Dies hat weitreichende Folgen für Forschungsprioritäten, politische Entscheidungsfindung und die Gestaltung von Förderprogrammen. Um eine ganzheitliche Ausrichtung von KI-Systemen zu erreichen, müssen laut den Autoren neue Wege der Zusammenarbeit geschaffen werden, die über die bestehenden, stark isolierten Netzwerke hinausgehen.