GUI‑Eyes: Aktive visuelle Wahrnehmung steigert GUI‑Agenten um 44,8 % Genauigkeit
In der Welt der grafischen Benutzeroberflächen (GUI) haben Fortschritte in Vision‑Language‑Modellen (VLMs) und Reinforcement Learning (RL) die Automatisierung von GUIs vorangetrieben. Dennoch basieren die meisten besteh…
- In der Welt der grafischen Benutzeroberflächen (GUI) haben Fortschritte in Vision‑Language‑Modellen (VLMs) und Reinforcement Learning (RL) die Automatisierung von GUIs v…
- Dennoch basieren die meisten bestehenden Ansätze auf statischen, einmaligen Bildaufnahmen und einer passiven Wahrnehmung, wodurch sie nicht in der Lage sind, selbstständ…
- Das neue Framework GUI‑Eyes löst dieses Problem, indem es einen aktiven visuellen Wahrnehmungsprozess in GUI‑Aufgaben integriert.
In der Welt der grafischen Benutzeroberflächen (GUI) haben Fortschritte in Vision‑Language‑Modellen (VLMs) und Reinforcement Learning (RL) die Automatisierung von GUIs vorangetrieben. Dennoch basieren die meisten bestehenden Ansätze auf statischen, einmaligen Bildaufnahmen und einer passiven Wahrnehmung, wodurch sie nicht in der Lage sind, selbstständig zu entscheiden, wann, ob und wie sie die Oberfläche beobachten.
Das neue Framework GUI‑Eyes löst dieses Problem, indem es einen aktiven visuellen Wahrnehmungsprozess in GUI‑Aufgaben integriert. Der Agent lernt, strategisch zu entscheiden, ob und wie er visuelle Werkzeuge wie Zuschneiden oder Zoomen einsetzt. Dabei wird ein zweistufiger Denkprozess angewendet: zunächst erfolgt eine grobe Erkundung, anschließend eine feine Ausrichtung auf die Zielregion. Diese Vorgehensweise wird von einer zweistufigen Politik koordiniert.
Zur Unterstützung dieser Strategie wurde eine räumlich kontinuierliche Belohnungsfunktion entwickelt, die sowohl die Nähe zum Zielort als auch die Überlappung mit der gewünschten Region berücksichtigt. Dadurch erhält der Agent dichte Rückmeldungen und die häufig auftretende Belohnungssparsheit in GUI‑Umgebungen wird reduziert. Auf dem ScreenSpot‑Pro Benchmark erzielt GUI‑Eyes‑3B mit nur 3.000 gelabelten Beispielen eine Grounding‑Genauigkeit von 44,8 % – deutlich besser als herkömmliche überwachte und RL‑basierte Baselines.
Diese Ergebnisse zeigen, dass tool‑bewusste aktive Wahrnehmung, unterstützt durch gestaffelte Politikentscheidungen und feinkörniges Belohnungsfeedback, entscheidend für die Entwicklung robuster und daten-effizienter GUI‑Agenten ist.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.