LLMs meistern Text-Graphen ohne Struktur – Struktur hilft nicht mehr
In einer aktuellen Untersuchung auf arXiv wird die Annahme in Frage gestellt, dass graphbasierte Strukturen für große Sprachmodelle (LLMs) zwingend notwendig sind. Graphen verbinden semantische Inhalte mit relationalen Strukturen und sind deshalb in Bereichen wie Molekulardarstellung, Zitationsnetzwerken und sozialen Graphen sehr beliebt. Gleichzeitig haben LLMs enorme Fortschritte beim Verstehen natürlicher Sprache erzielt und zeigen großes Potenzial für die Verarbeitung von Graphdaten.