Neues Framework für Multi-Agenten: Embedded Universal Predictive Intelligence

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

In einer wegweisenden Veröffentlichung auf arXiv wird ein neues mathematisches Modell vorgestellt, das die Grenzen des klassischen, modellfreien Reinforcement Learning sprengt. Das herkömmliche Paradigma geht davon aus, dass Umweltdynamiken stationär sind und Agenten von ihrer Umgebung getrennt agieren – ein Ansatz, der in Mehragentensystemen versagt, weil das Lernen eines Agenten die Welt für die anderen verändert.

Das vorgestellte Framework baut auf der Theorie der universellen künstlichen Intelligenz (AIXI) auf und führt das Konzept der „embedded agency“ ein. Hierbei prognostizieren Bayesianische RL-Agenten nicht nur zukünftige Sinneseindrücke, sondern auch ihre eigenen Handlungen. Durch die Auflösung epistemischer Unsicherheit über sich selbst als Teil des Universums können Agenten ihre eigenen Entscheidungsprozesse besser verstehen und vorhersehen.

Ein besonders spannender Aspekt ist die Fähigkeit zur Selbstvorhersage in Mehragentensystemen. Agenten, die sich selbst modellieren, können nun auch die Überzeugungen anderer Agenten antizipieren, die wiederum ihre eigenen Vorhersagen über das eigene Verhalten anstellen. Dieses gegenseitige Vorhersagen führt zu neuen, spieltheoretischen Lösungskonzepten und ermöglicht Formen der Kooperation, die bei klassischen, voneinander getrennten Agenten nicht erreichbar sind.

Darüber hinaus erweitert die Arbeit die AIXI-Theorie um universell intelligente, eingebettete Agenten, die mit einer Solomonoff-Vorpriorität starten. Die Autoren zeigen, dass solche idealisierten Agenten konsistente gegenseitige Vorhersagen treffen und eine „unendliche Ordnung der Theory of Mind“ erreichen können – ein bedeutender Schritt in Richtung vollständig intelligenter Mehragentensysteme.

Ähnliche Artikel