LLM-basierte Empfehlungssysteme: Unsicherheit und Fairness im Fokus
Große Sprachmodelle (LLMs) ermöglichen leistungsstarke Zero‑Shot‑Empfehlungen, indem sie umfangreiches Kontextwissen nutzen. Doch die damit einhergehende Vorhersageunsicherheit und eingebettete Vorurteile stellen die Zuverlässigkeit und Fairness dieser Systeme in Frage. In einer neuen Studie wird untersucht, wie Unsicherheits- und Fairnessbewertungen die Genauigkeit, Konsistenz und Vertrauenswürdigkeit von LLM‑generierten Empfehlungen beeinflussen.