LLM‑Anpassung durch selbstgesteuerte Editierstrategien erforscht
Forscher haben einen neuen Ansatz entwickelt, bei dem große Sprachmodelle (LLMs) eigenständig entscheiden, wie sie ihre Gewichte anhand von Aufgabenfeedback aktualisieren. Dieser Schritt geht über die bisher üblichen, von Menschen vorgegebenen Editiervorlagen hinaus und könnte die langfristige Weiterentwicklung von LLM‑basierten Suchsystemen beschleunigen.
Im Fokus steht ein einzelner Selbstverbesserungszyklus, bei dem die Update‑Strategie auf selbstüberwachtes Next‑Token‑Prediction (NTP) beschränkt ist. Das Modell wählt dabei frei, welche Trainingsdaten und welche NTP‑Hyperparameter verwendet werden. Durch die Aufhebung der festen Template‑Beschränkung im SEAL‑Framework (Self‑Adapting Language Models) kann das Modell eigene Self‑Edit‑Vorlagen generieren und so mehr Kontrolle über seinen Lernprozess erlangen.
Zwei Varianten wurden untersucht: eine ohne Archiv vergangener Vorlagen und eine mit einem leichten Archiv. In der Single‑Passage Knowledge Incorporation‑Umgebung mit Qwen3‑8B auf der SQuAD‑Datenbank zeigte die Variante ohne Archiv eine Leistung, die dem schwächeren „Implications“-Baseline entspricht. Die Variante mit Archiv übertraf „Implications“ und kam dem stärksten, von Menschen entworfenen „Rewrite“-Baseline nahe, ohne sie zu übertreffen.
Eine weitere Analyse des Modells zeigte, dass ein einfaches Archiv kurzfristig Robustheit verleihen kann, jedoch auch Herausforderungen mit sich bringt. Diese Erkenntnisse legen nahe, dass selbstgesteuerte Editierstrategien ein vielversprechender Ansatz für die autonome Anpassung von LLMs darstellen, gleichzeitig aber sorgfältig auf mögliche Nebenwirkungen geprüft werden müssen.