LLM-gestützte Hierarchie-Neuordnung senkt Verzerrung hyperbolischer Einbettungen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer wegweisenden Studie zeigen die Autoren, dass Large Language Models (LLMs) in der Lage sind, hierarchische Wissensstrukturen so neu zu organisieren, dass hyperbolische Einbettungen deutlich präziser werden.

Hyperbolische Geometrie hat sich als besonders geeignet erwiesen, um hierarchische Daten – etwa aus Empfehlungssystemen oder Computer Vision – zu verarbeiten. Die Qualität der Einbettungen hängt stark von der Struktur der zugrunde liegenden Hierarchie ab. Für optimale Ergebnisse sind laut aktuellen Erkenntnissen ein hoher Ausbreitungsfaktor und die Einhaltung von Single‑Inheritance‑Prinzipien entscheidend, während die Algorithmen gegenüber Ungleichgewichten und Hierarchielängen robust bleiben.

Die Autoren entwickeln einen prompt‑basierten Ansatz, bei dem LLMs vorhandene Hierarchien anhand dieser Kriterien umgestalten. Durch gezielte Anweisungen werden die Modelle dazu angeregt, die Struktur so zu verändern, dass sie den Anforderungen hyperbolischer Einbettungen entspricht.

In Experimenten mit sechzehn unterschiedlichen Hierarchien konnte gezeigt werden, dass die von LLMs neu gestalteten Strukturen konsequent bessere Einbettungsqualitäten liefern – gemessen an etablierten Metriken wie Distanz‑Preservation und Klassifikationsgenauigkeit. Darüber hinaus ermöglichen die LLM‑generierten Erklärungen den Wissensingenieuren nachvollziehbare Begründungen für die Änderungen, was die Akzeptanz und Transparenz der Methode erhöht.

Ähnliche Artikel