HumanLM: Nutzer simulieren mit Zustandsausrichtung übertrifft Reaktionsnachahmung
In der Welt der großen Sprachmodelle (LLMs) gewinnt die Simulation echter Nutzerantworten immer mehr an Bedeutung. Dabei geht es nicht nur um das Nachahmen von Sprachmustern, sondern um das authentische Nachbilden der inneren Zustände, die echte Menschen in ihren Reaktionen leiten. Das neue Forschungsprojekt HumanLM adressiert genau dieses Problem.
HumanLM nutzt einen innovativen Trainingsansatz, bei dem das Modell nicht nur Antworten generiert, sondern gleichzeitig natürliche Sprachdarstellungen von latenten Zuständen erzeugt. Diese Zustände sind psychologisch fundierte Dimensionen – etwa Überzeugungen oder Emotionen – und werden durch Reinforcement Learning so ausgerichtet, dass sie mit den tatsächlichen Nutzerantworten übereinstimmen. Anschließend werden die ausgerichteten Zustände in realistische Antworten umgesetzt, die echte Nutzerverhalten besser widerspiegeln.
Zur Bewertung des Ansatzes wurde Humanual entwickelt, ein umfangreiches Benchmark‑Set mit sechs großen Datensätzen, die insgesamt 26.000 Nutzer und 216.000 Antworten abdecken. Die Daten reichen von alltäglichen Problemen über politische Diskurse bis hin zu Chat‑Sitzungen mit LLM‑Assistenten. HumanLM erzielt dabei einen durchschnittlichen Anstieg der Ausrichtungs‑Scores um 16,3 % im Vergleich zu bestehenden Methoden, wie ein unabhängiger LLM‑Judge bestätigt.
In einer Echtzeit‑Simulation mit 111 Teilnehmern zeigte HumanLM die höchste Ähnlichkeit zu echten Nutzerantworten, was die praktische Relevanz des Modells unterstreicht. Diese Fortschritte markieren einen bedeutenden Schritt hin zu nutzerzentrierten Anwendungen, die nicht nur sprachlich, sondern auch inhaltlich und emotional authentisch sind.