BudgetMem: Effiziente Langkontextverarbeitung mit selektiver Gedächtnissteuerung
Ein neues Modell namens BudgetMem, vorgestellt auf arXiv (2511.04919v1), löst ein zentrales Problem moderner Sprachmodelle: die hohen Kosten für Speicher und Rechenleistung bei der Verarbeitung langer Texte. Während aktuelle Ansätze Kontextfenster von 100 000 bis 1 Million Tokens ermöglichen, bleiben sie für ressourcenbeschränkte Systeme zu teuer.