Nutzer von KI-Modellen werden sozial bestraft – 36 % der Einnahmen verloren

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem Bereich der Verhaltensökonomie hat gezeigt, dass die Nutzung von großen Sprachmodellen (LLMs) nicht nur Effizienzsteigerungen bringt, sondern auch soziale Sanktionen auslöst.

In einem zweiphasigen Online-Experiment nahmen 491 Teilnehmer teil. In Phase I wurden die Probanden mit einer realen Arbeitsaufgabe konfrontiert, die sie entweder mit oder ohne Unterstützung eines LLMs erledigten. In Phase II konnten die Beobachter einen Teil ihres eigenen Geldes einsetzen, um die Einnahmen derjenigen zu reduzieren, die zuvor die Aufgabe gelöst hatten.

Im Durchschnitt zerstörten die Beobachter 36 % der Einnahmen jener, die ausschließlich auf das Modell setzten. Die Bestrafung stieg monoton mit dem tatsächlichen Einsatz des LLMs, was darauf hindeutet, dass die soziale Ablehnung mit der Intensität der Nutzung korreliert.

Ein interessanter Aspekt war die Entstehung eines Glaubwürdigkeitsgaps: Selbstberichtete Nichtnutzung wurde härter bestraft als tatsächliche Nichtnutzung, was auf ein Misstrauen gegenüber Deklarationen hinweist. Bei hohem Einsatz hingegen wurde die tatsächliche Abhängigkeit stärker bestraft als die selbstberichtete.

Die Ergebnisse liefern das erste Verhaltensbeweis dafür, dass die Produktivitätsgewinne von LLMs mit sozialen Kosten verbunden sind. Sie zeigen, dass Effizienzgewinne nicht ohne gesellschaftliche Konsequenzen auskommen.

Ähnliche Artikel