LLM-basiertes Argument Mining trifft Logik: Ansatz für Debattenanalyse

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Large Language Models (LLMs) haben in der Textanalyse und -generierung bemerkenswerte Erfolge erzielt, doch sie stoßen bei komplexen Diskursen wie Debatten an ihre Grenzen. Insbesondere fehlt ihnen eine strukturierte Darstellung, die zeigt, wie Argumente einander unterstützen oder angreifen und wie deren relative Stärke die Gesamtabnahme beeinflusst.

Um diese Schwächen zu überwinden, präsentiert ein neues Forschungsframework die Kombination von lernbasiertem Argument Mining mit quantitativer Argumentationslogik und ontologiebasierter Abfrage. Aus einem Rohtext einer Debatte wird zunächst eine fuzzy argumentative Wissensbasis erstellt, in der Argumente als Entitäten explizit dargestellt, durch Angriffs- und Unterstützungsbeziehungen verknüpft und mit anfänglichen fuzzy Stärken versehen werden, die die Plausibilität im Kontext widerspiegeln.

Anschließend werden quantitative Argumentationssemantiken angewendet, um die endgültigen Argumentstärken zu berechnen. Dabei werden die Effekte von Unterstützungen und Angriffen propagiert, sodass die relative Gewichtung aller Argumente ermittelt wird. Diese Ergebnisse werden anschließend in ein fuzzy Description Logic-Setting eingebettet, wodurch ausdrucksstarke Abfragen effizient beantwortet werden können – dank leistungsfähiger Rewriting-Techniken.

Der Ansatz liefert eine transparente, erklärbare und formal fundierte Methode zur Analyse von Debatten. Er überwindet die Beschränkungen rein statistischer LLM-Analysen und eröffnet neue Möglichkeiten für nachvollziehbare Argumentationsbewertung und -abfrage in komplexen Diskursen.