Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Vision-Language”
Forschung

<h1>Neues Benchmark prüft Sprachrobustheit von Vision‑Language‑Modellen</h1> <p>Ein neues Verfahren namens Language‑Guided Invariance Probing (LGIP) wurde entwickelt, um die sprachliche Robustheit von Vision‑Language‑Modellen (VLMs) zu messen. LGIP bewertet, wie gut Modelle bei bedeutungserhaltenden Paraphrasen stabil bleiben und wie empfindlich sie auf semantische Änderungen reagieren, die Objektkategorien, Farben oder Mengen verändern.</p> <p>Die Studie nutzt 40.000 Bilder aus dem MS‑COCO‑Datensatz, jedes

arXiv – cs.AI
Forschung

<p>EcoVLA: Umwelt‑Pruning beschleunigt Vision‑Language‑Action‑Modelle</p> <p>Vision‑Language‑Action‑Modelle (VLA) versprechen eine neue Ära der eingebetteten Intelligenz, doch ihre enormen Parameterzahlen führen zu hohen Latenzen, die Echtzeitmanipulationen erschweren. Traditionelle, statische Pruning‑Methoden können die sich ständig verändernden Umgebungsbedingungen nicht berücksichtigen, während dynamische, periodische Prunings zu grob und rechenintensiv sind.</p> <p>Um dieses Problem zu lösen, präsentier

arXiv – cs.AI
Forschung

<h1>Vielversprechende VLMs: Rotation‑Robustheit & Bias‑Reduktion</h1> <p>Vision‑Language‑Modelle (VLMs) und generative Bildmodelle haben in den letzten Jahren beeindruckende Leistungen bei multimodalen Aufgaben erzielt. Trotz dieser Erfolge bleiben Fragen zur Robustheit und Fairness unter Eingabe­transformationen, insbesondere Rotationen, weitgehend unbeantwortet.</p> <p>Die vorliegende Arbeit untersucht, wie Vorurteile in hochmodernen VLMs und generativen Modellen durch Bildrotationen und Verteilungssprüng

arXiv – cs.AI