KI erklärt Daten: Sprachmodelle liefern verständliche Beschreibungen
Deep‑Learning‑Modelle haben in vielen Bereichen große Erfolge erzielt, bleiben aber oft ein Black‑Box‑Phänomen. Während bisherige XAI‑Ansätze vor allem die Entscheidungswege der Modelle beleuchten, geht die neue Studie einen Schritt weiter: Sie wollen die Daten selbst verständlich machen – und zwar mit Hilfe von Sprachmodellen.
Der vorgeschlagene Ansatz besteht aus einer Pipeline, die mithilfe großer Sprachmodelle und externer Wissensdatenbanken textuelle Beschreibungen der Daten erzeugt. Da solche Beschreibungen manchmal unnötige Informationen enthalten können, wird ein Verfahren zur Einflussabschätzung eingesetzt, das die aussagekräftigsten Texte auswählt. Zusätzlich fließt ein CLIP‑Score ein, um die Relevanz weiter zu verfeinern.
Um die Wirksamkeit zu prüfen, wurde ein neues Benchmark‑Task namens „cross‑modal transfer classification“ entwickelt. In einer Zero‑Shot‑Umgebung zeigte sich, dass die generierten Beschreibungen deutlich besser abschneiden als herkömmliche Baselines. Darüber hinaus konnten sie die Leistung von Modellen, die ausschließlich mit Bilddaten trainiert wurden, über alle neun Bildklassifikationsdatensätze hinweg signifikant steigern. Die Ergebnisse wurden zusätzlich durch eine Bewertung mit GPT‑4o bestätigt.
Durch diese Methode erhält man nicht nur leicht verständliche Datenbeschreibungen, sondern auch neue Einblicke in die inhärente Interpretierbarkeit der Entscheidungsprozesse von KI‑Modellen. Die Arbeit eröffnet damit einen vielversprechenden Weg, um die Kluft zwischen komplexen Algorithmen und menschlichem Verständnis zu überbrücken.