Rashomon-Effekt: Mehrere Modelle liefern Genauigkeit, nutzen andere Konzepte
Neuer Forschungsbeitrag auf arXiv zeigt, dass moderne neuronale Netzwerke nicht nur ein einziges „richtiges“ Modell besitzen. Für viele Aufgaben lassen sich mehrere Netzwerke mit identischer Genauigkeit finden, die jedoch unterschiedliche, menschlich verständliche Konzepte nutzen – ein Phänomen, das als Rashomon-Effekt bekannt ist.
Die Autoren stellen Rashomon Concept Bottleneck Models vor, ein Verfahren, das mehrere Deep‑Learning‑Modelle gleichzeitig lernt, die alle exakt korrekt sind, aber über verschiedene Konzept‑Bottlenecks hinweg entscheiden. Durch den Einsatz leichter Adapter‑Module und einer diversitätsregulierten Trainingszielsetzung entsteht ein vielfältiges Set an Konzept‑basierten Netzwerken, ohne jedes Modell von Grund auf neu trainieren zu müssen.
Die resultierenden Modelle zeigen, wie sich die Abhängigkeit von bestimmten Konzepten und die Entscheidungswege bei gleichwertiger Leistung unterscheiden. Dieses System ermöglicht eine systematische Untersuchung der datengetriebenen Entscheidungsvielfalt, bietet neue Werkzeuge für Audits, Vergleiche und die Abstimmung gleichwertiger Lösungen und eröffnet damit neue Perspektiven für Transparenz und Vertrauen in KI‑Systeme.