Kleine LLMs: Nachhaltigkeit trifft Leistung in agentischen KI-Systemen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Große Sprachmodelle sind inzwischen unverzichtbar für agentische Künstliche Intelligenz, doch ihr hoher Energieverbrauch bei der Inferenz stellt ein ernstes Nachhaltigkeitsproblem dar.

Eine neue Untersuchung prüft, ob der Einsatz kleinerer Modelle die Stromkosten senken kann, ohne die Reaktionsgeschwindigkeit oder die Qualität der Ergebnisse zu beeinträchtigen. Dazu wurden verschiedene Sprachmodelle unterschiedlicher Größe in realen Mehragentenszenarien verglichen.

Die Ergebnisse zeigen, dass kleinere Open‑Weight‑Modelle den Energieverbrauch deutlich reduzieren, während die Aufgabenqualität weitgehend erhalten bleibt. Damit wird deutlich, dass Skalierung nicht zwangsläufig mit höherem Energieaufwand verbunden sein muss.

Auf Basis dieser Erkenntnisse wurden praxisnahe Leitlinien entwickelt, die optimale Batchgrößen und die effiziente Zuweisung von Rechenressourcen vorschlagen. Diese Empfehlungen bieten konkrete Handlungsanweisungen für die Entwicklung von KI-Systemen, die sowohl leistungsfähig als auch umweltverträglich sind.

Ähnliche Artikel