Neues Modell LAIN verbessert CTR‑Vorhersagen durch Längenanpassung

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

In modernen Empfehlungssystemen variieren die Nutzer‑Verhaltenssequenzen stark in ihrer Länge – von wenigen, spärlichen Interaktionen bis hin zu umfangreichen Langzeit‑Historien. Ein Problem, das bisher oft übersehen wurde, ist, dass die Erhöhung der maximalen Eingabesequenzlänge in bestehenden CTR‑Modellen paradoxerweise die Leistung bei Nutzern mit kurzen Sequenzen verschlechtert. Der Grund liegt in einer „Attention‑Polarisierung“ und einem Ungleichgewicht der Trainingsdaten.

Um diesem Problem zu begegnen, hat ein Forschungsteam das „Length‑Adaptive Interest Network“ (LAIN) entwickelt. LAIN ist ein Plug‑and‑Play‑Framework, das die Sequenzlänge explizit als Bedingung nutzt, um die Modellierung von langen und kurzen Sequenzen auszubalancieren. Das System besteht aus drei schlanken Komponenten: einem Spectral Length Encoder, der die Länge in kontinuierliche Repräsentationen überführt; einer Length‑Conditioned Prompting‑Schicht, die globale Kontext‑Signale in die jeweiligen Kurz‑ und Langzeit‑Verhaltenszweige einbettet; und einer Length‑Modulated Attention‑Schicht, die die Aufmerksamkeits‑Schärfe je nach Sequenzlänge dynamisch anpasst.

Die Experimente, die auf drei realen Benchmark‑Datensätzen und fünf leistungsstarken CTR‑Backbones durchgeführt wurden, zeigen, dass LAIN die Gesamtleistung konsistent steigert. Die Verbesserungen reichen bis zu 1,15 % im AUC‑Score und 2,25 % in der Log‑Loss‑Reduktion. Besonders hervorzuheben ist die signifikante Leistungssteigerung bei Nutzern mit kurzen Sequenzen, ohne dass die Effektivität bei langen Sequenzen beeinträchtigt wird. LAIN bietet damit eine effiziente, generische und sofort einsatzbereite Lösung, um die durch Sequenzlängen bedingte Verzerrung in sequentiellen Empfehlungssystemen zu reduzieren.

Ähnliche Artikel