Forschung arXiv – cs.AI

ENACT: Benchmark prüft, ob Vision‑Language‑Modelle wirklich sensorisch handeln

Die neue Studie „ENACT“ stellt Vision‑Language‑Modelle (VLMs) einer einzigartigen Herausforderung gegenüber: Sie prüfen, ob diese Systeme wirklich aus sensorisch-motorischer Interaktion lernen oder lediglich passiv beob…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die neue Studie „ENACT“ stellt Vision‑Language‑Modelle (VLMs) einer einzigartigen Herausforderung gegenüber: Sie prüfen, ob diese Systeme wirklich aus sensorisch-motoris…
  • Durch die Einführung eines Benchmarks, der die Bewertung von eingebetteter Kognition als Weltmodellierung aus egoszentrischer Sicht in einem Visual‑Question‑Answering‑Fo…
  • ENACT nutzt einen teilweise beobachtbaren Markov‑Entscheidungsprozess (POMDP), bei dem die Aktionen Änderungen im Szenengraph darstellen.

Die neue Studie „ENACT“ stellt Vision‑Language‑Modelle (VLMs) einer einzigartigen Herausforderung gegenüber: Sie prüfen, ob diese Systeme wirklich aus sensorisch-motorischer Interaktion lernen oder lediglich passiv beobachten. Durch die Einführung eines Benchmarks, der die Bewertung von eingebetteter Kognition als Weltmodellierung aus egoszentrischer Sicht in einem Visual‑Question‑Answering‑Format (VQA) gestaltet, wird die Frage konkret beantwortet.

ENACT nutzt einen teilweise beobachtbaren Markov‑Entscheidungsprozess (POMDP), bei dem die Aktionen Änderungen im Szenengraph darstellen. Das Benchmark besteht aus zwei komplementären Aufgaben: dem „forward world modeling“, bei dem die Reihenfolge der Beobachtungen anhand gegebener Aktionen neu angeordnet wird, und dem „inverse world modeling“, bei dem die Reihenfolge der Aktionen anhand der Beobachtungen rekonstruiert wird. Obwohl die Aufgaben konzeptionell einfach erscheinen, erfordern sie zentrale Fähigkeiten der eingebetteten Kognition, wie Affordanz‑Erkennung, Aktions‑Effekt‑Logik, bewusste Wahrnehmung und langfristiges Gedächtnis aus teilweise beobachtbaren egoszentrischen Eingaben.

Um die Aufgaben realistisch zu gestalten, wird ein skalierbarer Pipeline-Ansatz verwendet, der QA‑Paare aus der Robotik‑Simulation BEHAVIOR generiert. Insgesamt werden 8.972 Fragen‑Antwort‑Paare zu langanhaltenden, häuslichen Aktivitäten evaluiert. Die Ergebnisse zeigen einen deutlichen Leistungsunterschied zwischen den fortschrittlichsten VLMs und menschlichen Probanden, der mit zunehmender Interaktionsdauer wächst. Modelle schneiden bei der inversen Aufgabe besser ab als bei der vorwärtsgerichteten und zeigen anthropozentrische Verzerrungen, etwa eine Präferenz für rechts‑handige Aktionen sowie Leistungseinbußen bei bestimmten Kamerapositionen.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Vision‑Language‑Modelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
ENACT
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Eingebettete Kognition
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.
Naechste Schritte

Aehnliche Entwicklungen zum Weiterlesen