LLMs profitieren von Nutzer- und Artikel-Embeddings in Empfehlungssystemen
Große Sprachmodelle (LLMs) haben sich als vielversprechende Empfehlungssysteme etabliert, indem sie Nutzerpräferenzen auf generative Weise modellieren. Bisher stützen sich viele Ansätze jedoch ausschließlich auf Textsemantik oder nutzen kollaborative Signale nur eingeschränkt, meist durch einzelne Nutzer- oder Artikel-Embeddings. Dadurch fehlt die Möglichkeit, mehrere Artikel-Embeddings aus der Nutzerhistorie zu berücksichtigen, und die Modelle greifen wieder zu rein textbasierten Informationen.