Neue Methode optimiert lokale Sprachmodelle und Cloud‑Nutzung bei Budgetgrenzen
In der Forschung zu kleinen Sprachmodellen (SLMs), die lokal auf Geräten laufen, ist es entscheidend, dass diese Modelle kontinuierlich neue Aufgaben bewältigen können, ohne dabei die begrenzten Speicher- und Rechenressourcen zu überschreiten. Gleichzeitig muss die Nutzung von Cloud‑Large Language Models (LLMs) gesteuert werden, da ein zu häufiger Cloud‑Aufruf die Leistung beeinträchtigen und Kosten erhöhen kann.