LLMs meistern Graphaufgaben dank strukturierter Kontextinjektion
Neues Forschungspapier aus dem arXiv-Repository zeigt, dass große Sprachmodelle (LLMs) ohne Feinabstimmung in der Lage sind, komplexe Graphaufgaben zu lösen. Durch die gezielte Einbettung von strukturiertem Kontext in die Eingabe werden die Modelle dazu angeregt, graphbezogene Probleme in konzeptuell fundierte Darstellungen zu überführen. Dieser Ansatz spart nicht nur Rechenressourcen, sondern reduziert auch die Kosten, die bei herkömmlichen Fine‑Tuning‑Methoden oder mehrstufigen Abfragen entstehen.