Tensor Logic vereint Datalog und neuronale Netzwerke – Forschungsergebnisse
Die Vereinigung von symbolischem Logiksystemen und neuronalen Netzwerken bleibt eines der zentralen Probleme der künstlichen Intelligenz. Symbolische Ansätze bieten Zuverlässigkeit und Interpretierbarkeit, stoßen jedoch bei großen Datenmengen an ihre Grenzen. Neuronale Netze dagegen lernen flexibel, verlieren aber an Transparenz. Die von Pedro Domingos entwickelte Tensor Logic schlägt einen mathematisch fundierten Weg vor, indem sie logische Regeln mit der Einstein‑Summation verknüpft und damit die beiden Paradigmen auf einer gemeinsamen Basis zusammenführt.
In einem ersten Experiment wurde die Gleichwertigkeit rekursiver Datalog‑Regeln und iterativer Tensor‑Kontraktionen demonstriert. Dabei wurde die Transitive‑Schließung eines biblischen Genealogie‑Graphen mit 1 972 Personen und 1 727 Eltern‑Kind‑Beziehungen berechnet. Nach 74 Iterationen wurden 33 945 Ahnenbeziehungen entdeckt – ein Ergebnis, das die Skalierbarkeit der Tensor‑Logik unter Beweis stellt.
Das zweite Experiment zeigte, dass logisches Denken im Einbettungsraum möglich ist. Ein neuronales Netzwerk mit lernbaren Transformationsmatrizen konnte erfolgreich Zero‑Shot‑kompositionale Inferenzen durchführen, indem es auf zuvor nicht gesehenen Anfragen antwortete. Damit wird deutlich, dass Tensor‑Logik nicht nur klassische Logik, sondern auch moderne Deep‑Learning‑Methoden einbeziehen kann.
Schließlich wurde die Tensor‑Logik‑Superposition auf dem großen Wissensgraphen FB15k‑237 getestet, der 14 541 Entitäten und 237 Relationen umfasst. Durch die Relation‑Matrix‑Formulierung R_r = Eᵀ A_r E erreichte das Modell einen Mean Reciprocal Rank (MRR) von 0,3068 bei Standard‑Link‑Prediction und 0,3346 bei einem kompositorischen Reasoning‑Benchmark, bei dem direkte Kanten während des Trainings entfernt wurden. Diese Ergebnisse zeigen, dass die Matrix‑Komposition Mehr‑Sprung‑Inferenzen ohne direkte Trainingsbeispiele ermöglicht.