LATTE: Neue Methode reduziert Kosten und verbessert Kunden-Embedding in Banken
In der Finanzwelt ist die Analyse von Kundenkommunikationen entscheidend, um individuelle Bedürfnisse zu erkennen und maßgeschneiderte Angebote zu entwickeln. Doch die Verarbeitung langer Kommunikationssequenzen mit großen Sprachmodellen (LLMs) ist bislang teuer und ineffizient. Das neue Forschungsprojekt LATTE (Learning Aligned Transactions and Textual Embeddings) löst dieses Problem, indem es die Stärken von LLMs mit einem kontrastiven Lernansatz kombiniert.