LLMs profitieren von Nutzer- und Artikel-Embeddings in Empfehlungssystemen
Große Sprachmodelle (LLMs) haben sich als vielversprechende Empfehlungssysteme etabliert, indem sie Nutzerpräferenzen auf generative Weise modellieren. Bisher stützen sich viele Ansätze jedoch ausschließlich auf Textsem…
- Große Sprachmodelle (LLMs) haben sich als vielversprechende Empfehlungssysteme etabliert, indem sie Nutzerpräferenzen auf generative Weise modellieren.
- Bisher stützen sich viele Ansätze jedoch ausschließlich auf Textsemantik oder nutzen kollaborative Signale nur eingeschränkt, meist durch einzelne Nutzer- oder Artikel-E…
- Dadurch fehlt die Möglichkeit, mehrere Artikel-Embeddings aus der Nutzerhistorie zu berücksichtigen, und die Modelle greifen wieder zu rein textbasierten Informationen.
Große Sprachmodelle (LLMs) haben sich als vielversprechende Empfehlungssysteme etabliert, indem sie Nutzerpräferenzen auf generative Weise modellieren. Bisher stützen sich viele Ansätze jedoch ausschließlich auf Textsemantik oder nutzen kollaborative Signale nur eingeschränkt, meist durch einzelne Nutzer- oder Artikel-Embeddings. Dadurch fehlt die Möglichkeit, mehrere Artikel-Embeddings aus der Nutzerhistorie zu berücksichtigen, und die Modelle greifen wieder zu rein textbasierten Informationen.
In der vorliegenden Arbeit wird ein einfacher, aber wirkungsvoller Ansatz vorgestellt: Nutzer- und Artikel-Embeddings, die aus klassischen kollaborativen Filtermethoden stammen, werden mittels leichter Projektoren in den Token‑Raum des LLMs überführt. Das feinabgestimmte Modell nutzt anschließend sowohl die projizierten Embeddings als auch die Text‑Tokens, um Empfehlungen zu generieren.
Preliminary Ergebnisse zeigen, dass dieser Ansatz die strukturierten Interaktionsdaten zwischen Nutzern und Artikeln effektiv nutzt, die Empfehlungsleistung gegenüber text‑nur‑LLM‑Baselines verbessert und einen praktikablen Weg bietet, traditionelle Empfehlungssysteme mit modernen LLMs zu verbinden.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.