STEP: Kontext‑Wissensfusion für Konversations‑Empfehlungen mit Curriculum‑Lernen
Konversations‑Empfehlungssysteme (CRS) wollen Nutzerpräferenzen durch natürliche Dialoge erfassen und passende Produkte vorschlagen. Dabei stoßen sie häufig an die Grenzen der semantischen Tiefe und an die Herausforderung, externe Wissensgraphen (KG) sinnvoll in die Dialog‑ und Empfehlungsschleife einzubinden. Traditionelle Ansätze mischen KG‑Informationen direkt mit dem Dialogtext, was bei komplexen semantischen Beziehungen zu Missverständnissen führt und die Nutzererwartungen nicht immer erfüllt.
Die neue Methode namens STEP nutzt vortrainierte Sprachmodelle und kombiniert sie mit einem schrittweisen Curriculum‑Learning‑Ansatz zur Kontext‑Wissensfusion. Ein spezieller F‑Former‑Modul richtet den Dialogkontext in drei aufeinanderfolgenden Stufen gezielt an die relevanten KG‑Entitäten aus, wodurch feine semantische Diskrepanzen behoben werden. Anschließend wird die gefusionierte Repräsentation in ein eingefrorenes Sprachmodell eingespeist.
Die Integration erfolgt über zwei minimalistische, aber adaptive Präfix‑Prompts: ein Konversations‑Präfix lenkt die Antwortgenerierung auf die Nutzerabsicht und ein Empfehlung‑Präfix biasiert die Rangliste der Items in Richtung wissenskonformer Kandidaten. Dieses Dual‑Prompt‑Schema ermöglicht es dem Modell, Wissen und Dialog gleichzeitig zu nutzen und die Leistung über beide Aufgaben hinweg zu steigern.