LQA: Leichtgewichtiges quantisiertes Framework für Vision‑Language‑Modelle Edge
Die Ausführung von Vision‑Language‑Modellen (VLMs) auf Edge‑Geräten ist durch begrenzte Rechenleistung und Speicher sowie durch Leistungseinbußen bei veränderten Datenverteilungen stark eingeschränkt. Test‑Time‑Adaptation (TTA) kann diese Probleme mildern, doch bisherige Verfahren erfordern zu viele Ressourcen, um sie direkt auf dem Gerät einzusetzen.