Graph Neural Networks verbessern Argumentationsanalyse
In einer wegweisenden Veröffentlichung präsentiert ein internationales Forschungsteam die ersten Graph Neural Network (GNN)-Modelle, die die Berechnung von Argumentationserweiterungen im Rahmen der Assumption-Based Argumentation (ABA) effizienter machen. Durch die Darstellung von ABA-Frameworks als heterogene Abhängigkeitsgraphen – wobei Annahmen, Behauptungen und Regeln als Knoten und Unterstützungs-, Ableitungs- sowie Angriffsbeziehungen als unterschiedliche Kantentypen kodiert werden – ermöglichen die neuen Architekturen ABAGCN und ABAGAT eine gezielte Lernphase.
ABAGCN nutzt residual heterogene Konvolutionsschichten, während ABAGAT auf heterogene Aufmerksamkeitsmechanismen setzt. Beide Modelle wurden auf dem ICCMA 2023-Benchmark trainiert, der zusätzlich mit synthetisch generierten ABA-Frameworks erweitert wurde. Durch eine Bayesianische Hyperparameteroptimierung konnten die Modelle ihre Leistung deutlich steigern.
Die Ergebnisse sind beeindruckend: Beide GNNs übertreffen einen adaptiven Baseline-Ansatz aus der abstrakten Argumentationsforschung und erzielen einen Knotenniveau‑F1‑Score von bis zu 0,71 bei den ICCMA‑Instanzen. Darüber hinaus wurde ein polynomielle Zeit‑Algorithmus entwickelt, der stabile Erweiterungen aus den Vorhersagen rekonstruiert. Dieser Rekonstruktionsmechanismus erreicht bei kleinen ABA-Frameworks einen F1‑Score von über 0,85 und hält bei größeren Strukturen einen F1 von rund 0,58.
Diese Entwicklungen markieren einen bedeutenden Fortschritt für skalierbare, approximative Verfahren in der strukturierten Argumentation und eröffnen neue Perspektiven für die praktische Anwendung von ABA in komplexen Entscheidungsprozessen.