NeLaMKRR 2025: Workshop untersucht Transformer‑Modelle im logischen Denken
Der zweite Internationaler Workshop zu Sprachmodellen der nächsten Generation für Wissensrepräsentation und Argumentation (NeLaMKRR 2025) wurde offiziell angekündigt. Der Workshop richtet sich an Forscher aus unterschiedlichen Disziplinen und zielt darauf ab, die Schnittstelle zwischen modernen Transformer‑Modellen und klassischen logikbasierten Wissensrepräsentationen zu erforschen.
Das zentrale Thema ist das logische Denken, das für kritisches Denken, verantwortungsvolle Entscheidungen und die Lösung komplexer Probleme unerlässlich ist. Traditionell hat die KI das logische Denken in formalen, regelbasierten Systemen behandelt. Mit dem jüngsten Durchbruch im Natural Language Processing, insbesondere bei großen Transformer‑Modellen, scheint jedoch die Möglichkeit zu bestehen, dass diese Modelle selbst über eine Art von Argumentations‑Fähigkeit verfügen. Trotz intensiver Diskussionen bleibt die Frage offen, in welchem Umfang diese Modelle tatsächlich logisch denken können.
Der Workshop bietet eine Plattform, um verschiedene Ansätze zu vergleichen und zu kombinieren. Ziel ist es, die Argumentationsfähigkeiten von Sprachmodellen systematisch zu messen, sie mit Methoden der Wissensrepräsentation (KR) abzugleichen, KR‑Stil‑Argumentation in die Modelle einzubetten – auch neuro‑symbolisch – und die Art der Argumentation, die die Modelle ausführen, formal zu beschreiben.
Durch diese Untersuchungen soll aufgezeigt werden, wie Transformer‑Modelle Wissen und logisches Denken effektiv integrieren können. Das Ergebnis soll die Anwendbarkeit und Zuverlässigkeit dieser Modelle in Bereichen erhöhen, in denen Präzision und Vertrauenswürdigkeit entscheidend sind.