Neuer Ansatz steigert lokale Erklärbarkeit von Black-Box-Modellen
In einer Zeit, in der komplexe Machine‑Learning‑Modelle immer häufiger in kritischen Bereichen eingesetzt werden, ist es entscheidend, ihre Entscheidungen nachvollziehbar zu machen. Ein weit verbreitetes Verfahren dafür ist LIME, das lokale Erklärungen liefert, indem es ein einfaches Modell in der Nähe der zu erklärenden Instanz anpasst. LIME geht jedoch von einer linearen Trennlinie aus, was bei nichtlinearen Zusammenhängen zu ungenauen Erklärungen führt.