Heterogenität in Big Data: Klassifikation strukturiert vs. unstrukturiert

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie beleuchtet, wie die Vielfalt von Big‑Data‑Datensätzen die Wahl von Klassifikationsalgorithmen beeinflusst. Dabei werden strukturierte Daten (z. B. tabellarische Messwerte) und unstrukturierte Textkorpora (wie Filmrezensionen) systematisch miteinander verglichen.

Zur Analyse wurden zwei moderne Techniken kombiniert: In Python wurden genetische Algorithmen und das Bayesianische Optimierungsframework Optuna eingesetzt, um Hyperparameter für numerische Modelle zu finden. Für die riesigen Textmengen kam Apache Spark zum Einsatz, um verteiltes Training und Feature‑Engineering effizient durchzuführen.

Die Ergebnisse zeigen ein faszinierendes „Komplexitätsparadoxon“. In hochdimensionalen, strukturierten Räumen übertreffen optimierte lineare Modelle wie SVM und logistische Regression sogar tiefes Lernen und Gradient‑Boosting. Im Textbereich hingegen führen verteilte Feinabstimmungen zu Overfitting bei komplexen Modellen, während gezielte Feature‑Engineering‑Ansätze – etwa Transformer‑basierte Embeddings (ROBERTa) kombiniert mit Bayesian Target Encoding – es ermöglichen, dass einfachere Modelle robust generalisieren.

Die Arbeit liefert damit einen einheitlichen Rahmen, der die Auswahl des passenden Algorithmus anhand der Datenart und der vorhandenen Infrastruktur erleichtert. Sie bietet Forschern und Praktikern gleichermaßen wertvolle Orientierungshilfen für die effiziente Nutzung heterogener Big‑Data‑Quellen.

Ähnliche Artikel