Forschung arXiv – cs.AI

Tensor Logic vereint Datalog und neuronale Netzwerke – Forschungsergebnisse

Die Vereinigung von symbolischem Logiksystemen und neuronalen Netzwerken bleibt eines der zentralen Probleme der künstlichen Intelligenz. Symbolische Ansätze bieten Zuverlässigkeit und Interpretierbarkeit, stoßen jedoch…

≈2 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die Vereinigung von symbolischem Logiksystemen und neuronalen Netzwerken bleibt eines der zentralen Probleme der künstlichen Intelligenz.
  • Symbolische Ansätze bieten Zuverlässigkeit und Interpretierbarkeit, stoßen jedoch bei großen Datenmengen an ihre Grenzen.
  • Neuronale Netze dagegen lernen flexibel, verlieren aber an Transparenz.

Die Vereinigung von symbolischem Logiksystemen und neuronalen Netzwerken bleibt eines der zentralen Probleme der künstlichen Intelligenz. Symbolische Ansätze bieten Zuverlässigkeit und Interpretierbarkeit, stoßen jedoch bei großen Datenmengen an ihre Grenzen. Neuronale Netze dagegen lernen flexibel, verlieren aber an Transparenz. Die von Pedro Domingos entwickelte Tensor Logic schlägt einen mathematisch fundierten Weg vor, indem sie logische Regeln mit der Einstein‑Summation verknüpft und damit die beiden Paradigmen auf einer gemeinsamen Basis zusammenführt.

In einem ersten Experiment wurde die Gleichwertigkeit rekursiver Datalog‑Regeln und iterativer Tensor‑Kontraktionen demonstriert. Dabei wurde die Transitive‑Schließung eines biblischen Genealogie‑Graphen mit 1 972 Personen und 1 727 Eltern‑Kind‑Beziehungen berechnet. Nach 74 Iterationen wurden 33 945 Ahnenbeziehungen entdeckt – ein Ergebnis, das die Skalierbarkeit der Tensor‑Logik unter Beweis stellt.

Das zweite Experiment zeigte, dass logisches Denken im Einbettungsraum möglich ist. Ein neuronales Netzwerk mit lernbaren Transformationsmatrizen konnte erfolgreich Zero‑Shot‑kompositionale Inferenzen durchführen, indem es auf zuvor nicht gesehenen Anfragen antwortete. Damit wird deutlich, dass Tensor‑Logik nicht nur klassische Logik, sondern auch moderne Deep‑Learning‑Methoden einbeziehen kann.

Schließlich wurde die Tensor‑Logik‑Superposition auf dem großen Wissensgraphen FB15k‑237 getestet, der 14 541 Entitäten und 237 Relationen umfasst. Durch die Relation‑Matrix‑Formulierung R_r = Eᵀ A_r E erreichte das Modell einen Mean Reciprocal Rank (MRR) von 0,3068 bei Standard‑Link‑Prediction und 0,3346 bei einem kompositorischen Reasoning‑Benchmark, bei dem direkte Kanten während des Trainings entfernt wurden. Diese Ergebnisse zeigen, dass die Matrix‑Komposition Mehr‑Sprung‑Inferenzen ohne direkte Trainingsbeispiele ermöglicht.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Künstliche Intelligenz
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Symbolische Logik
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Neuronale Netzwerke
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen