NEZHA: Schnellere Generative Empfehlungen ohne Qualitätsverlust

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Generative Recommendation (GR) nutzt große Sprachmodelle, um personalisierte Vorschläge zu erzeugen. Trotz ihres Potenzials sind die hohen Inferenzzeiten bislang ein Hindernis für Echtzeit‑Anwendungen in der Industrie. NEZHA löst dieses Problem, indem sie eine neue Architektur entwickelt, die die Geschwindigkeit dramatisch erhöht, ohne die Empfehlungsqualität zu beeinträchtigen.

Der Schlüssel liegt in der Integration eines schlanken autoregressiven Draft‑Heads direkt in das Hauptmodell. Dadurch kann das System eigenständig Entwürfe erstellen und gleichzeitig die Konsistenz der Sequenz‑zu‑Sequenz‑Generierung durch ein spezielles Prompt‑Design bewahren. Zusätzlich verhindert ein modellfreier Verifikator, der auf einer Hash‑Set‑Struktur basiert, Halluzinationen und damit verbundene Leistungsabfälle.

Umfassende Tests auf öffentlichen Datensätzen haben die Effektivität von NEZHA bestätigt. Seit Oktober 2025 läuft die Lösung bereits erfolgreich bei Taobao, generiert Milliarden an Werbeeinnahmen und bedient täglich Hundert Millionen Nutzer. NEZHA demonstriert, dass hyperschnelle, qualitativ hochwertige generative Empfehlungen praktisch umsetzbar sind.

Ähnliche Artikel