Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “VLMs”
Forschung

<p>Neue Benchmark NativeEmbodied zeigt Schwächen von VLM-basierten Agenten</p> <p>Vision‑Language‑Modelle (VLMs) haben in den letzten Jahren großes Interesse für menschenähnliche, eingebettete Intelligenz geweckt. Bisherige Tests für VLM‑gestützte Agenten setzen jedoch häufig auf hochrangige Befehle oder stark vereinfachte Aktionsräume, die weit von realen Steuerungsbedingungen abweichen. Diese Diskrepanz führt zu unvollständigen Bewertungen der tatsächlichen Fähigkeiten der Agenten.</p> <p>Um diese Lücken

arXiv – cs.AI
Forschung

<h1>Neues Benchmark prüft Sprachrobustheit von Vision‑Language‑Modellen</h1> <p>Ein neues Verfahren namens Language‑Guided Invariance Probing (LGIP) wurde entwickelt, um die sprachliche Robustheit von Vision‑Language‑Modellen (VLMs) zu messen. LGIP bewertet, wie gut Modelle bei bedeutungserhaltenden Paraphrasen stabil bleiben und wie empfindlich sie auf semantische Änderungen reagieren, die Objektkategorien, Farben oder Mengen verändern.</p> <p>Die Studie nutzt 40.000 Bilder aus dem MS‑COCO‑Datensatz, jedes

arXiv – cs.AI
Forschung

Verborgene Instabilität in Vision‑Language‑Modellen: Neue Analyse <p>In einer aktuellen Studie von Forschern aus dem Bereich der Vision‑Language‑Modelle (VLMs) wurde eine bislang unentdeckte Instabilität aufgedeckt. Die Autoren stellen ein neues, repräsentations- und frequenzsensitives Evaluationsframework vor, das die inneren Abläufe von VLMs genauer unter die Lupe nimmt als bisherige, reine Output‑Metriken.</p> <p>Das Framework misst drei zentrale Aspekte: den Drift der internen Embeddings, die spektr

arXiv – cs.AI
Forschung

<h1>Wie viel Information kann ein Vision-Token speichern? Skalierungsregel für VLMs</h1> <p>Neueste vision‑zentrierte Modelle, wie DeepSeek‑OCR, haben die Fähigkeit, Text in Bildern in kontinuierliche Vision‑Tokens zu kodieren, ohne dabei die Erkennungsgenauigkeit zu verlieren. Durch diese hohe Kompression entsteht jedoch die Frage nach der maximalen Informationsmenge, die ein einzelner Token tragen kann.</p> <p>Um diese Grenze zu bestimmen, führten die Forscher gezielte Belastungstests durch, bei denen sie

arXiv – cs.LG