Neuer generativer Ansatz reduziert Prompt-Länge für LLMs effizient
Forscher haben einen innovativen Weg entwickelt, um die Eingabeaufforderungen großer Sprachmodelle (LLMs) zu verkürzen, ohne dabei an Qualität zu verlieren. Der neue Ansatz nutzt anstelle des üblichen Token‑Entfernens e…