KI-Agenten beeinflussen Kooperation nicht – Normative Gleichwertigkeit bestätigt
Eine neue Studie aus dem Bereich der Mensch‑KI‑Interaktion hat gezeigt, dass die Einbindung eines KI‑Agents in kleine Gruppen keine signifikanten Unterschiede in der Kooperationsbereitschaft erzeugt. Die Ergebnisse legen nahe, dass die zugrunde liegenden normativen Mechanismen – wie Rückkopplung und Verhaltensinertia – sowohl in rein menschlichen als auch in gemischten Gruppen gleichermaßen wirken.
Im Experiment wurden 236 Online‑Teilnehmer in vier‑Personen‑Gruppen zusammengeführt, bestehend aus drei Menschen und einem Bot. Der Bot wurde entweder als Mensch oder als KI gekennzeichnet und folgte einer von drei vordefinierten Strategien: unbedingte Kooperation, konditionale Kooperation oder Free‑Riding. Durch wiederholte Runden des Public‑Goods‑Games konnten die Forscher die Dynamik der Kooperation über die Zeit hinweg beobachten.
Die Analyse zeigte, dass die Kooperationsraten in allen Bedingungen – unabhängig von der Identitätskennzeichnung des Bots – nahezu identisch blieben. Die Haupttreiber für Kooperation waren die gegenseitige Rückkopplung der Gruppenmitglieder und die Tendenz, bestehendes Verhalten beizubehalten. Darüber hinaus wurden keine Unterschiede in der Wahrnehmung von Normen oder in der Persistenz von Kooperationsnormen in einem anschließenden Prisoner’s‑Dilemma‑Spiel festgestellt.
Diese Befunde unterstützen die Idee der „normativen Gleichwertigkeit“, wonach die Mechanismen, die Kooperation in Gruppen aufrechterhalten, in gemischten Mensch‑KI‑Gruppen genauso funktionieren wie in rein menschlichen Gruppen. Für die Entwicklung von KI‑Systemen, die in sozialen Kontexten eingesetzt werden sollen, bedeutet dies, dass die Integration von KI-Agenten die kollektive Kooperationsfähigkeit nicht beeinträchtigt, solange die zugrunde liegenden normativen Dynamiken erhalten bleiben.