ABLE: Adversarial Pairs ermöglichen stabile lokale Erklärungen von ML-Modellen
Maschinelles Lernen wird zunehmend in kritischen Bereichen eingesetzt, bleibt jedoch oft ein „Black‑Box“-Phänomen, weil die Entscheidungsprozesse nicht nachvollziehbar sind. Lokale Erklärungsansätze wie LIME versuchen, dieses Problem zu lösen, indem sie das Verhalten komplexer Modelle in der Nähe eines Testpunkts mit einfachen, interpretierbaren Modellen approximieren. Diese Verfahren leiden jedoch häufig unter Instabilität und geringer lokaler Genauigkeit.