ENACT: Benchmark prüft, ob Vision‑Language‑Modelle wirklich sensorisch handeln
Die neue Studie „ENACT“ stellt Vision‑Language‑Modelle (VLMs) einer einzigartigen Herausforderung gegenüber: Sie prüfen, ob diese Systeme wirklich aus sensorisch-motorischer Interaktion lernen oder lediglich passiv beob…
- Die neue Studie „ENACT“ stellt Vision‑Language‑Modelle (VLMs) einer einzigartigen Herausforderung gegenüber: Sie prüfen, ob diese Systeme wirklich aus sensorisch-motoris…
- Durch die Einführung eines Benchmarks, der die Bewertung von eingebetteter Kognition als Weltmodellierung aus egoszentrischer Sicht in einem Visual‑Question‑Answering‑Fo…
- ENACT nutzt einen teilweise beobachtbaren Markov‑Entscheidungsprozess (POMDP), bei dem die Aktionen Änderungen im Szenengraph darstellen.
Die neue Studie „ENACT“ stellt Vision‑Language‑Modelle (VLMs) einer einzigartigen Herausforderung gegenüber: Sie prüfen, ob diese Systeme wirklich aus sensorisch-motorischer Interaktion lernen oder lediglich passiv beobachten. Durch die Einführung eines Benchmarks, der die Bewertung von eingebetteter Kognition als Weltmodellierung aus egoszentrischer Sicht in einem Visual‑Question‑Answering‑Format (VQA) gestaltet, wird die Frage konkret beantwortet.
ENACT nutzt einen teilweise beobachtbaren Markov‑Entscheidungsprozess (POMDP), bei dem die Aktionen Änderungen im Szenengraph darstellen. Das Benchmark besteht aus zwei komplementären Aufgaben: dem „forward world modeling“, bei dem die Reihenfolge der Beobachtungen anhand gegebener Aktionen neu angeordnet wird, und dem „inverse world modeling“, bei dem die Reihenfolge der Aktionen anhand der Beobachtungen rekonstruiert wird. Obwohl die Aufgaben konzeptionell einfach erscheinen, erfordern sie zentrale Fähigkeiten der eingebetteten Kognition, wie Affordanz‑Erkennung, Aktions‑Effekt‑Logik, bewusste Wahrnehmung und langfristiges Gedächtnis aus teilweise beobachtbaren egoszentrischen Eingaben.
Um die Aufgaben realistisch zu gestalten, wird ein skalierbarer Pipeline-Ansatz verwendet, der QA‑Paare aus der Robotik‑Simulation BEHAVIOR generiert. Insgesamt werden 8.972 Fragen‑Antwort‑Paare zu langanhaltenden, häuslichen Aktivitäten evaluiert. Die Ergebnisse zeigen einen deutlichen Leistungsunterschied zwischen den fortschrittlichsten VLMs und menschlichen Probanden, der mit zunehmender Interaktionsdauer wächst. Modelle schneiden bei der inversen Aufgabe besser ab als bei der vorwärtsgerichteten und zeigen anthropozentrische Verzerrungen, etwa eine Präferenz für rechts‑handige Aktionen sowie Leistungseinbußen bei bestimmten Kamerapositionen.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.