Grables: Tabellarisches Lernen ohne unabhängige Zeilen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

In einer neuen Veröffentlichung auf arXiv wird ein Ansatz vorgestellt, der die Grenzen herkömmlicher tabellarischer Lernmodelle sprengt. Traditionelle Methoden bewerten jede Zeile eines Datensatzes unabhängig voneinander – ein Ansatz, der bei i.i.d. Benchmarks gut funktioniert, aber bei transaktionalen, zeitlichen oder relationalen Tabellen versagt, wo die Labels von anderen Zeilen abhängen.

Der Beitrag führt „grables“ ein, ein modular aufgebautes Interface, das die Umwandlung einer Tabelle in ein Graphenmodell (Constructor) von der eigentlichen Vorhersage (Node Predictor) trennt. Diese Trennung macht deutlich, wo die Ausdruckskraft eines Modells herkommt und ermöglicht gezielte Verbesserungen.

Durch Experimente mit synthetischen Aufgaben, Transaktionsdaten und dem RelBench‑Klinikstudien-Datensatz wird gezeigt, dass Message‑Passing‑Netzwerke Inter‑Zeilen‑Abhängigkeiten erfassen, die reine Zeilen‑lokale Modelle übersehen. Hybrid‑Ansätze, die explizit die inter‑Zeilen‑Struktur extrahieren und an starke tabellarische Lernalgorithmen weitergeben, erzielen dabei konsequente Leistungssteigerungen.

Ähnliche Artikel