LQA: Leichtgewichtiges quantisiertes Framework für Vision‑Language‑Modelle Edge

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die Ausführung von Vision‑Language‑Modellen (VLMs) auf Edge‑Geräten ist durch begrenzte Rechenleistung und Speicher sowie durch Leistungseinbußen bei veränderten Datenverteilungen stark eingeschränkt. Test‑Time‑Adaptation (TTA) kann diese Probleme mildern, doch bisherige Verfahren erfordern zu viele Ressourcen, um sie direkt auf dem Gerät einzusetzen.

Mit dem neuen LQA‑Framework (Lightweight Quantized‑Adaptive) wird diese Lücke geschlossen. LQA kombiniert eine modulare Quantisierung namens Selective Hybrid Quantization (SHQ) mit einer quantisierten, gradientsfreien Adaptationsmethode. Dadurch bleibt das Modell nicht nur klein, sondern kann sich auch ohne aufwändige Gradientenberechnungen an neue Verteilungen anpassen.

In umfangreichen Tests, die sowohl synthetische als auch reale Verteilungsverschiebungen abdecken, übertrifft LQA bestehende TTA‑Methoden deutlich. Die Anpassungsleistung steigt um 4,5 %, während der Speicherbedarf im Vergleich zu Vollpräzisionsmodellen um bis zu 19,9‑fach reduziert wird. Diese Ergebnisse wurden über sieben Open‑Source‑Datensätze hinweg erzielt.

Die Kombination aus geringer Größe, hoher Effizienz und datenschutzfreundlicher Adaptation macht LQA zu einer praktikablen Lösung für den Einsatz von VLMs auf ressourcenbeschränkten Edge‑Geräten. Entwickler können damit robuste, schnelle und sichere Anwendungen realisieren, ohne auf die Leistungsfähigkeit moderner Vision‑Language‑Modelle verzichten zu müssen.

Ähnliche Artikel