KI-Agenten erkennen Ziele aus Gesprächen – neue Open-Universe Assistance Games
In einer wegweisenden Veröffentlichung stellen Forscher das Konzept der Open-Universe Assistance Games (OU‑AGs) vor. Dabei müssen KI‑Agenten in Echtzeit die vielfältigen, nicht vordefinierten Ziele und Präferenzen von Menschen erkennen und darauf reagieren. Das Ziel ist, Agenten zu schaffen, die in einer offenen und sich ständig verändernden Zielwelt handlungsfähig bleiben.
Im Mittelpunkt steht die Methode GOOD (GOals from Open-ended Dialogue). GOOD nutzt ein großes Sprachmodell, um während einer Interaktion mit einem Menschen natürliche Sprachziele zu extrahieren und eine Wahrscheinlichkeitsverteilung über mögliche Ziele zu bestimmen. Durch das Simulieren von Nutzern mit unterschiedlichen, komplexen Intentionen liefert das Modell Antworten, die anschließend für eine probabilistische Inferenz über Kandidatziele verwendet werden. So entstehen reichhaltige Zielrepräsentationen und Unsicherheitsabschätzungen, ohne dass große Offline‑Datensätze nötig sind.
Die Methode wurde in zwei Szenarien getestet: einem textbasierten Einkaufsspiel und einer simulierten Haushaltsrobotik‑Umgebung (AI2Thor). In beiden Fällen übertraf GOOD ein Baseline-Modell, das keine explizite Zielverfolgung durchführte. Die Leistungssteigerung wurde sowohl durch weitere Sprachmodell‑Bewertungen als auch durch menschliche Experimente bestätigt.
Diese Fortschritte markieren einen wichtigen Schritt hin zu KI‑Systemen, die flexibel und interpretierbar auf menschliche Bedürfnisse reagieren können. Die Kombination aus Online‑Zielerkennung und probabilistischer Inferenz eröffnet neue Möglichkeiten für Assistenz‑ und Robotik‑Anwendungen, die sich nahtlos an die sich wandelnden Anforderungen der Nutzer anpassen.