Klein vs. Groß: Kleine Sprachmodelle sparen CO₂, ohne Leistung zu verlieren
Die rasante Verbreitung großer Sprachmodelle (LLMs) hat die Diskussion um ihren enormen CO₂-Fußabdruck in den Vordergrund gerückt. Von der energieintensiven Trainingsphase bis hin zu wiederholten Inferenzläufen erzeugen diese Modelle beträchtliche Emissionen.
Eine neue Untersuchung, veröffentlicht auf arXiv (2601.08844v1), prüft, ob feinabgestimmte kleine Sprachmodelle (SLMs) als nachhaltige Alternative für vorgegebene Aufgaben dienen können. Die Forscher haben die Leistungs- und Emissionsbilanz von LLMs und SLMs in den Bereichen Natural Language Processing, Reasoning und Programming verglichen.
Ergebnisse zeigen, dass in vier von sechs ausgewählten Aufgaben die SLMs vergleichbare Leistungen erbringen, während die CO₂-Emissionen bei der Inferenz deutlich reduziert werden. Damit wird deutlich, dass kleinere Modelle nicht nur effizienter, sondern auch umweltfreundlicher sein können.
Diese Erkenntnisse unterstreichen die Machbarkeit einer grüneren KI-Architektur und markieren einen wichtigen Schritt hin zu nachhaltigeren, ressourcenschonenden Sprachmodellen.