Vision‑Language‑Programme: Bildverständnis trifft systematisches Denken
Vision‑Language‑Modelle (VLMs) haben in den letzten Jahren beeindruckende Fortschritte bei multimodalen Aufgaben erzielt, doch bei systematischem visuellen Denken stoßen sie häufig an ihre Grenzen. Die Modelle liefern oft inkonsistente oder logikfehlerhafte Ergebnisse, weil die zugrunde liegende Wahrnehmung nicht flexibel genug ist, um komplexe Zusammenhänge zu erfassen.
Die neue Methode der Vision‑Language‑Programme (VLP) kombiniert die starke Wahrnehmungsfähigkeit von VLMs mit der strukturierten Logik von Programmiersynthese. Anstatt das Denken direkt im Modell zu verankern, erzeugt VLP zunächst strukturierte visuelle Beschreibungen, die anschließend in neuro‑symbolische Programme kompiliert werden. Diese Programme laufen direkt auf den Bilddaten, bleiben dabei konsistent mit den Aufgabenanforderungen und liefern nachvollziehbare, menschlich interpretierbare Erklärungen. Dadurch lassen sich leicht auftretende Kurzschlüsse erkennen und korrigieren.
Experimentelle Tests auf synthetischen und realen Datensätzen zeigen, dass VLPs die Leistung von herkömmlichen Prompting‑Methoden deutlich übertreffen, insbesondere bei Aufgaben, die komplexe logische Schlüsse erfordern. Die Ergebnisse unterstreichen das Potenzial von VLPs, die Lücke zwischen leistungsstarken, aber oft unklaren VLMs und den Anforderungen an systematisches, erklärbares Denken zu schließen.