Neues Multi-Task-Modell verbessert personalisierte Produktsuche
Forscher haben ein innovatives Modell entwickelt, das die Rangfolge von Produktsuchen individuell anpasst. Durch den Einsatz eines Multi‑Task‑Learning‑Frameworks werden gleichzeitig mehrere Aufgaben gelöst, was die Genauigkeit der Suchergebnisse deutlich steigert.
Das System kombiniert tabellarische Daten wie Produktattribute mit nicht‑tabellarischen Informationen, etwa Textbeschreibungen. Für die semantische Einbettung nutzt es TinyBERT, ein leichtgewichtiges vortrainiertes Sprachmodell, und integriert eine neue Stichprobenmethode, die vielfältige Kundenverhalten erfasst.
Im Vergleich zu etablierten Baselines wie XGBoost, TabNet, FT‑Transformer, DCN‑V2 und MMoE zeigt das Modell besonders bei gemischten Datentypen eine höhere Leistung. Zusätzlich wird ein skalierbarer Relevanz‑Label‑Mechanismus vorgestellt, der Klick‑Durchschnitte, Klickpositionen und semantische Ähnlichkeit nutzt, anstelle von manuellen Annotationen.
Experimentelle Ergebnisse belegen, dass die Kombination aus nicht‑tabellarischen Daten, fortschrittlichen Einbettungen und Multi‑Task‑Learning die Qualität der personalisierten Suchergebnisse signifikant verbessert. Ablationsstudien unterstreichen den Nutzen von Relevanz‑Labels, dem Feintuning von TinyBERT‑Schichten und der Interaktion zwischen Anfragen und Produkten.