Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Vision-Language Models”
Forschung

<h1>Neues Benchmark prüft Sprachrobustheit von Vision‑Language‑Modellen</h1> <p>Ein neues Verfahren namens Language‑Guided Invariance Probing (LGIP) wurde entwickelt, um die sprachliche Robustheit von Vision‑Language‑Modellen (VLMs) zu messen. LGIP bewertet, wie gut Modelle bei bedeutungserhaltenden Paraphrasen stabil bleiben und wie empfindlich sie auf semantische Änderungen reagieren, die Objektkategorien, Farben oder Mengen verändern.</p> <p>Die Studie nutzt 40.000 Bilder aus dem MS‑COCO‑Datensatz, jedes

arXiv – cs.AI
Forschung

<h1>Vielversprechende VLMs: Rotation‑Robustheit & Bias‑Reduktion</h1> <p>Vision‑Language‑Modelle (VLMs) und generative Bildmodelle haben in den letzten Jahren beeindruckende Leistungen bei multimodalen Aufgaben erzielt. Trotz dieser Erfolge bleiben Fragen zur Robustheit und Fairness unter Eingabe­transformationen, insbesondere Rotationen, weitgehend unbeantwortet.</p> <p>Die vorliegende Arbeit untersucht, wie Vorurteile in hochmodernen VLMs und generativen Modellen durch Bildrotationen und Verteilungssprüng

arXiv – cs.AI