Autoregressive Modelle revolutionieren die Generierung von Wissensgraphen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Ein neuer Beitrag auf arXiv (2602.06707v1) stellt ARK – Auto‑Regressive Knowledge Graph Generation – vor, eine Familie von Modellen, die Wissensgraphen (KGs) als Sequenzen von (Kopf, Relation, Schwanz)-Tripeln erzeugen. Durch die autoregressive Struktur lernt ARK implizite semantische Beschränkungen direkt aus den Daten, darunter Typkonsistenz, zeitliche Gültigkeit und relationale Muster, ohne dass explizite Regelüberwachung erforderlich ist.

Auf dem IntelliGraphs-Benchmark erzielt ARK beeindruckende Ergebnisse: die semantische Validität der generierten Graphen liegt zwischen 89,2 % und 100 %. Dabei entstehen völlig neue Graphen, die während des Trainings nicht vorkamen, was die Fähigkeit des Modells unterstreicht, komplexe Abhängigkeiten zwischen Tripeln zu erfassen.

Eine erweiterte Variante, SAIL, nutzt eine variationale Architektur, um die Generierung zu steuern. Durch lernbasierte latente Repräsentationen ermöglicht SAIL sowohl unbedingtes Sampling als auch bedingte Vervollständigung aus partiellen Graphen. Diese Flexibilität eröffnet neue Einsatzmöglichkeiten in der Wissensbasis-Erweiterung und im Frage‑Antworten.

Die Analyse zeigt, dass die Modellkapazität – insbesondere eine verborgene Dimensionalität von mindestens 64 – entscheidender ist als die Tiefe der Architektur. Recurrente Strukturen erreichen vergleichbare Validitätsraten wie transformerbasierte Modelle, bieten jedoch erhebliche Vorteile in der Rechenleistung.

Insgesamt demonstriert der Beitrag, dass autoregressive Modelle ein effektives und effizientes Framework für die Generierung von Wissensgraphen darstellen, mit praktischen Anwendungen in der Vervollständigung von Wissensbasen und der Beantwortung komplexer Anfragen.

Ähnliche Artikel