Neue Methode ermittelt versteckte Anreizmechanismen aus Agentenverhalten
Forscher haben eine neue Technik entwickelt, mit der aus dem Verhalten lernender Agenten die bislang unbekannten Anreizmechanismen rekonstruiert werden können. Im Gegensatz zu herkömmlichen Ansätzen, die nur Nutzenparameter innerhalb eines vorgegebenen Rahmens schätzen, kann die Methode unstrukturierte Mechanismen – etwa neuronale Abbildungen von gemeinsamen Aktionen auf individuelle Belohnungen – identifizieren.
Die Methode, genannt DIML, basiert auf einer likelihood‑basierten Optimierung, die die Lerndynamik mehrerer Agenten differenziert. Durch die Simulation von Gegenfaktika, die aus einem Kandidatenmechanismus abgeleitet werden, kann DIML die beobachteten Aktionen vorhersagen und so die zugrunde liegenden Anreize extrahieren.
Die Autoren zeigen, dass die Differenzierung von Payoffs unter einem konditionalen Logit‑Antwortmodell identifizierbar ist und dass die Maximum‑Likelihood‑Schätzung statistisch konsistent bleibt, sofern Standardregularitätsbedingungen erfüllt sind.
In umfangreichen Simulationen – von neuronalen Mechanismen über Staugebühren bis hin zu öffentlichen Gütern und anonymen Spielen – konnte DIML die Anreize zuverlässig zurückführen. Die Leistung liegt in kleinen Umgebungen nahe an einer tabellarischen Enumerations‑Oracle, während die Konvergenz auch bei hundertteilnehmerigen Szenarien stabil bleibt. Der zugehörige Code ist Open‑Source und reproduzierbar.