Forschung
Energieeffizienz bei LLM-Inferezen: optimale Eingabe-/Ausgabe-Längen
Die Energie, die große Sprachmodelle (LLMs) bei der Inferenz verbrauchen, ist ein entscheidender Faktor für moderne KI-Anwendungen. Traditi…
arXiv – cs.AI