GLASS: Schnelle LLM-Ausführung durch globale‑lokale neuronale Aggregation
Die Ausführung großer Sprachmodelle auf Edge‑Geräten erfordert eine aggressive, prompt‑bewusste Dynamik, um Rechenaufwand zu reduzieren, ohne die Qualität zu verlieren. Traditionelle Ansätze, die ein statisches oder predictor‑basiertes Sparsity‑Pattern festlegen, sind entweder zu starr oder verursachen zusätzlichen Laufzeitaufwand. Zero‑Shot‑Methoden, die lediglich auf Statistiken aus einem einzelnen Prompt beruhen, scheitern häufig bei kurzen Eingaben oder bei langen Generierungsaufgaben.