Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “VLM”
Forschung

<p>Neue Benchmark NativeEmbodied zeigt Schwächen von VLM-basierten Agenten</p> <p>Vision‑Language‑Modelle (VLMs) haben in den letzten Jahren großes Interesse für menschenähnliche, eingebettete Intelligenz geweckt. Bisherige Tests für VLM‑gestützte Agenten setzen jedoch häufig auf hochrangige Befehle oder stark vereinfachte Aktionsräume, die weit von realen Steuerungsbedingungen abweichen. Diese Diskrepanz führt zu unvollständigen Bewertungen der tatsächlichen Fähigkeiten der Agenten.</p> <p>Um diese Lücken

arXiv – cs.AI
Forschung

<h1>Neues Benchmark prüft Sprachrobustheit von Vision‑Language‑Modellen</h1> <p>Ein neues Verfahren namens Language‑Guided Invariance Probing (LGIP) wurde entwickelt, um die sprachliche Robustheit von Vision‑Language‑Modellen (VLMs) zu messen. LGIP bewertet, wie gut Modelle bei bedeutungserhaltenden Paraphrasen stabil bleiben und wie empfindlich sie auf semantische Änderungen reagieren, die Objektkategorien, Farben oder Mengen verändern.</p> <p>Die Studie nutzt 40.000 Bilder aus dem MS‑COCO‑Datensatz, jedes

arXiv – cs.AI
Forschung

Verborgene Instabilität in Vision‑Language‑Modellen: Neue Analyse <p>In einer aktuellen Studie von Forschern aus dem Bereich der Vision‑Language‑Modelle (VLMs) wurde eine bislang unentdeckte Instabilität aufgedeckt. Die Autoren stellen ein neues, repräsentations- und frequenzsensitives Evaluationsframework vor, das die inneren Abläufe von VLMs genauer unter die Lupe nimmt als bisherige, reine Output‑Metriken.</p> <p>Das Framework misst drei zentrale Aspekte: den Drift der internen Embeddings, die spektr

arXiv – cs.AI