Agenten lernen Vertrauen: Bayesianische Anpassung an wechselnde Vorschläge
Autonome Systeme, die in sequentiellen Entscheidungsprozessen arbeiten, können von externen Handlungsvorschlägen profitieren, deren Zuverlässigkeit jedoch stark variieren kann. Traditionelle Ansätze gehen davon aus, dass die Qualität der Vorschläge konstant und bekannt ist – ein Modell, das in der Praxis oft nicht zutrifft.
In einer neuen Studie wird ein Rahmenwerk vorgestellt, das die Zuverlässigkeit von Vorschlägen dynamisch erfasst und anpasst. Durch die Einbindung der Vorschlagserfahrung in die eigene Glaubensrepräsentation kann der Agent mithilfe bayesscher Inferenz die Vertrauenswürdigkeit des Vorschlaggebers schätzen und seine Abhängigkeit von dessen Ratschlägen entsprechend steuern.
Ein weiteres Merkmal ist die Einführung einer expliziten „Fragen“-Aktion. Der Agent kann gezielt nach Vorschlägen fragen, wenn die erwarteten Informationsgewinne die Kosten für die Anfrage überwiegen. Diese Strategie ermöglicht ein ausgewogenes Verhältnis zwischen Nutzen und Aufwand.
Experimentelle Tests zeigen, dass das System robust gegenüber unterschiedlichen Vorschlagqualitäten funktioniert, sich an veränderte Zuverlässigkeiten anpasst und die Anzahl der Anfragen optimal steuert. Damit liefert die Arbeit einen wichtigen Beitrag zur adaptiven Zusammenarbeit zwischen Menschen und Agenten in unsicheren Umgebungen.