Tensor Logic vereint Datalog und neuronale Netzwerke – Forschungsergebnisse
Die Vereinigung von symbolischem Logiksystemen und neuronalen Netzwerken bleibt eines der zentralen Probleme der künstlichen Intelligenz. Symbolische Ansätze bieten Zuverlässigkeit und Interpretierbarkeit, stoßen jedoch…
- Die Vereinigung von symbolischem Logiksystemen und neuronalen Netzwerken bleibt eines der zentralen Probleme der künstlichen Intelligenz.
- Symbolische Ansätze bieten Zuverlässigkeit und Interpretierbarkeit, stoßen jedoch bei großen Datenmengen an ihre Grenzen.
- Neuronale Netze dagegen lernen flexibel, verlieren aber an Transparenz.
Die Vereinigung von symbolischem Logiksystemen und neuronalen Netzwerken bleibt eines der zentralen Probleme der künstlichen Intelligenz. Symbolische Ansätze bieten Zuverlässigkeit und Interpretierbarkeit, stoßen jedoch bei großen Datenmengen an ihre Grenzen. Neuronale Netze dagegen lernen flexibel, verlieren aber an Transparenz. Die von Pedro Domingos entwickelte Tensor Logic schlägt einen mathematisch fundierten Weg vor, indem sie logische Regeln mit der Einstein‑Summation verknüpft und damit die beiden Paradigmen auf einer gemeinsamen Basis zusammenführt.
In einem ersten Experiment wurde die Gleichwertigkeit rekursiver Datalog‑Regeln und iterativer Tensor‑Kontraktionen demonstriert. Dabei wurde die Transitive‑Schließung eines biblischen Genealogie‑Graphen mit 1 972 Personen und 1 727 Eltern‑Kind‑Beziehungen berechnet. Nach 74 Iterationen wurden 33 945 Ahnenbeziehungen entdeckt – ein Ergebnis, das die Skalierbarkeit der Tensor‑Logik unter Beweis stellt.
Das zweite Experiment zeigte, dass logisches Denken im Einbettungsraum möglich ist. Ein neuronales Netzwerk mit lernbaren Transformationsmatrizen konnte erfolgreich Zero‑Shot‑kompositionale Inferenzen durchführen, indem es auf zuvor nicht gesehenen Anfragen antwortete. Damit wird deutlich, dass Tensor‑Logik nicht nur klassische Logik, sondern auch moderne Deep‑Learning‑Methoden einbeziehen kann.
Schließlich wurde die Tensor‑Logik‑Superposition auf dem großen Wissensgraphen FB15k‑237 getestet, der 14 541 Entitäten und 237 Relationen umfasst. Durch die Relation‑Matrix‑Formulierung R_r = Eᵀ A_r E erreichte das Modell einen Mean Reciprocal Rank (MRR) von 0,3068 bei Standard‑Link‑Prediction und 0,3346 bei einem kompositorischen Reasoning‑Benchmark, bei dem direkte Kanten während des Trainings entfernt wurden. Diese Ergebnisse zeigen, dass die Matrix‑Komposition Mehr‑Sprung‑Inferenzen ohne direkte Trainingsbeispiele ermöglicht.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.