LLMs profitieren von Nutzer- und Artikel-Embeddings in Empfehlungssystemen

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Große Sprachmodelle (LLMs) haben sich als vielversprechende Empfehlungssysteme etabliert, indem sie Nutzerpräferenzen auf generative Weise modellieren. Bisher stützen sich viele Ansätze jedoch ausschließlich auf Textsemantik oder nutzen kollaborative Signale nur eingeschränkt, meist durch einzelne Nutzer- oder Artikel-Embeddings. Dadurch fehlt die Möglichkeit, mehrere Artikel-Embeddings aus der Nutzerhistorie zu berücksichtigen, und die Modelle greifen wieder zu rein textbasierten Informationen.

In der vorliegenden Arbeit wird ein einfacher, aber wirkungsvoller Ansatz vorgestellt: Nutzer- und Artikel-Embeddings, die aus klassischen kollaborativen Filtermethoden stammen, werden mittels leichter Projektoren in den Token‑Raum des LLMs überführt. Das feinabgestimmte Modell nutzt anschließend sowohl die projizierten Embeddings als auch die Text‑Tokens, um Empfehlungen zu generieren.

Preliminary Ergebnisse zeigen, dass dieser Ansatz die strukturierten Interaktionsdaten zwischen Nutzern und Artikeln effektiv nutzt, die Empfehlungsleistung gegenüber text‑nur‑LLM‑Baselines verbessert und einen praktikablen Weg bietet, traditionelle Empfehlungssysteme mit modernen LLMs zu verbinden.

Ähnliche Artikel