StructuralCFN: Netzwerk erklärt Tabellendaten besser als Gradient Boosting
Tabellendaten sind in vielen hochriskanten Bereichen – von der Medizin bis zur Umweltforschung – allgegenwärtig. Trotz ihrer Bedeutung liefern klassische Deep‑Learning‑Modelle oft nicht die gleiche Genauigkeit wie Gradient‑Boosted Decision Trees und verlieren dabei die wissenschaftliche Interpretierbarkeit.
Die neue Architektur Structural Compositional Function Networks (StructuralCFN) löst dieses Dilemma, indem sie eine relationen‑bewusste Induktionsvoraussetzung einführt. Durch einen differenzierbaren strukturellen Prior werden Features nicht mehr als unabhängige Einheiten behandelt, sondern als mathematische Zusammensetzungen ihrer Gegenstücke. Adaptive Gating‑Mechanismen entdecken dabei automatisch die optimale Aktivierungsphysik – etwa attention‑ähnliches Filtern oder inhibitorische Polarität – für jede Beziehung.
In einer umfangreichen 10‑Fold‑Cross‑Validation auf 18 Benchmarks, darunter wissenschaftliche und klinische Datensätze wie Blood Transfusion, Ozone und WDBC, übertrifft StructuralCFN die Leistung von Gradient‑Boosted Trees signifikant (p < 0,05). Gleichzeitig bleibt das Modell kompakt: Mit nur 300 bis 2 500 Parametern ist es 10‑ bis 20‑mal kleiner als vergleichbare Modelle.
Ein weiteres Highlight ist die intrinsische symbolische Interpretierbarkeit. StructuralCFN rekonstruiert die zugrunde liegenden „Gesetze“ des Datenmanifolds in leicht verständlichen mathematischen Ausdrücken, wodurch Fachleute die Entscheidungswege nachvollziehen können – ein entscheidender Vorteil für vertrauenswürdige KI‑Anwendungen.