Prompt‑Tuning für dynamische Graphen: DDGPrompt steigert Few‑Shot‑Leistung
In der Welt der dynamischen Graphen, die komplexe und sich wandelnde Beziehungen in realen Szenarien abbilden, hat die Forschung neue Wege gefunden, um die Leistung von Modellen in wenigen Beispielen zu verbessern. Traditionell werden Graphenmodelle vortrainiert, indem sie dynamische Link‑Prediction-Aufgaben lösen, und die daraus resultierenden Knoteneinbettungen werden anschließend für spezifische Aufgaben eingesetzt. Diese Vorgehensweise führt jedoch häufig zu Leistungseinbußen, besonders wenn die Zielaufgaben stark voneinander abweichen oder nur wenige Trainingsbeispiele zur Verfügung stehen.
Prompt‑Tuning hat sich als effektive Lösung etabliert, doch bestehende Methoden sind oft eng an bestimmte Architekturen oder Vortrainingsaufgaben gebunden und berücksichtigen lediglich node‑ oder zeitliche Merkmale, während die räumliche Struktur vernachlässigt wird. Das neue Framework DDGPrompt adressiert diese Schwächen, indem es die Eingabedaten selbst anpasst. Zunächst wird eine einheitliche Knotenausdrucks‑Matrix definiert, die sämtliche relevanten zeitlichen und strukturellen Informationen eines Knotens zusammenfasst und damit mit einer breiten Palette von dynamischen Graphenmodellen kompatibel ist.
Darauf aufbauend werden drei Prompt‑Matrix‑Typen eingeführt: ein zeitlicher Bias, ein Kantengewicht und ein Feature‑Mask. Diese Matrizen ermöglichen es, die Knotenausdrucks‑Matrix vollständig zu modifizieren und so die Knoteneinbettungen gezielt an die jeweilige Zielaufgabe anzupassen. In einer strengen Few‑Shot‑Evaluierung auf vier öffentlichen Datensätzen zeigte DDGPrompt signifikante Verbesserungen gegenüber herkömmlichen Prompt‑Tuning‑Ansätzen und beweist damit, dass datenzentrierte Prompt‑Strategien die Anpassungsfähigkeit von dynamischen Graphenmodellen nachhaltig erhöhen können.