Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Vision‑Language‑Modell”
Forschung

<p>Neue Benchmark NativeEmbodied zeigt Schwächen von VLM-basierten Agenten</p> <p>Vision‑Language‑Modelle (VLMs) haben in den letzten Jahren großes Interesse für menschenähnliche, eingebettete Intelligenz geweckt. Bisherige Tests für VLM‑gestützte Agenten setzen jedoch häufig auf hochrangige Befehle oder stark vereinfachte Aktionsräume, die weit von realen Steuerungsbedingungen abweichen. Diese Diskrepanz führt zu unvollständigen Bewertungen der tatsächlichen Fähigkeiten der Agenten.</p> <p>Um diese Lücken

arXiv – cs.AI
Forschung

<h1>Neues Benchmark prüft Sprachrobustheit von Vision‑Language‑Modellen</h1> <p>Ein neues Verfahren namens Language‑Guided Invariance Probing (LGIP) wurde entwickelt, um die sprachliche Robustheit von Vision‑Language‑Modellen (VLMs) zu messen. LGIP bewertet, wie gut Modelle bei bedeutungserhaltenden Paraphrasen stabil bleiben und wie empfindlich sie auf semantische Änderungen reagieren, die Objektkategorien, Farben oder Mengen verändern.</p> <p>Die Studie nutzt 40.000 Bilder aus dem MS‑COCO‑Datensatz, jedes

arXiv – cs.AI