Lokale Pareto-Optimierung liefert skalierbare Erklärungen für Black-Box-Modelle

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die Herausforderung, für Black‑Box‑Modelle verständliche Interpretationen zu erzeugen, besteht darin, die oft widersprüchlichen Ziele von Genauigkeit und Erklärbarkeit auszubalancieren. Ein klares Bild der Kompromisse zwischen diesen beiden Aspekten ist entscheidend, um vertrauenswürdige Modelle zu entwickeln.

Viele bisherige Techniken zur mehrzieligen Interpretation bieten zwar Ergebnisse, garantieren jedoch weder Pareto‑Optimalität noch Skalierbarkeit. Methoden, die solche Garantien liefern, stoßen häufig an ihre Grenzen, wenn sie die gesamte Pareto‑Grenze durchsuchen müssen.

Die neue Arbeit präsentiert einen Ansatz, der lokale Optimalitätsgarantien nutzt, um die Synthese von Interpretationen effizienter zu gestalten. Zunächst werden mithilfe von Multi‑Objective Monte‑Carlo‑Tree‑Search (MO‑MCTS) Kandidaten erzeugt, die sowohl hohe Genauigkeit als auch gute Erklärbarkeit aufweisen. Anschließend wird die lokale Pareto‑Optimalität jedes Kandidaten als Boolesches Erfüllbarkeitsproblem formuliert und mit einem SAT‑Solver überprüft.

Durch umfangreiche Benchmarks konnte gezeigt werden, dass die lokal optimierten Interpretationen nahezu die Qualität von Verfahren mit globalen Garantien erreichen, während gleichzeitig die Rechenzeit deutlich reduziert wird. Dieser Ansatz eröffnet neue Möglichkeiten, robuste und nachvollziehbare Modelle in großem Maßstab zu entwickeln.

Ähnliche Artikel