Neue Gewichtungsstrategien verbessern Präferenzoptimierung von LLMs
Fine‑Tuning ist ein wesentlicher Schritt, um große Sprachmodelle (LLMs) an menschliche Präferenzen anzupassen. Das neue Verfahren Multiple‑Reference Preference Optimization (MRPO) baut auf Direct Preference Optimization…
- Fine‑Tuning ist ein wesentlicher Schritt, um große Sprachmodelle (LLMs) an menschliche Präferenzen anzupassen.
- Das neue Verfahren Multiple‑Reference Preference Optimization (MRPO) baut auf Direct Preference Optimization (DPO) auf, indem es LLMs auf Präferenzdatensätzen trainiert…
- Aktuelle Methoden zur Bestimmung der Referenzgewichte sind jedoch willkürlich und statistisch unsicher, was zu unzuverlässigen Ergebnissen führt.
Fine‑Tuning ist ein wesentlicher Schritt, um große Sprachmodelle (LLMs) an menschliche Präferenzen anzupassen. Das neue Verfahren Multiple‑Reference Preference Optimization (MRPO) baut auf Direct Preference Optimization (DPO) auf, indem es LLMs auf Präferenzdatensätzen trainiert und gleichzeitig die Policy gegen eine Mischung aus Referenzmodellen reguliert, um deren kollektive Vorteile zu nutzen.
Aktuelle Methoden zur Bestimmung der Referenzgewichte sind jedoch willkürlich und statistisch unsicher, was zu unzuverlässigen Ergebnissen führt. Um dieses Problem zu lösen, wurden vier neue Gewichtungsstrategien entwickelt: zwei Offline‑Ansätze, die ein hold‑out‑Validierungssignal nutzen; ein Online‑Ansatz mit einem gleitenden Fenster, um Overfitting zu reduzieren; und ein Online‑Ansatz, der die Referenzgewichtung als K‑armed‑Bandit mittels Thompson Sampling behandelt.
In Experimenten mit dem Policy‑Modell Qwen2.5‑0.5B und sieben Referenzmodellen aus den Llama, Mistral, Qwen, Yi und Phi‑Familien (je 0.5 B–14 B Parameter) übertrafen alle vier Strategien die bisherigen MRPO‑Gewichtungsmethoden hinsichtlich Präferenzgenauigkeit auf den Datensätzen UltraFeedback und SafeRLHF.
Erstaunlicherweise zeigte sich, dass ein einzelnes Referenz‑DPO‑Modell – unabhängig davon, ob eines der sieben Referenzmodelle verwendet wird – konsequent alle getesteten Mehrfach‑Referenz‑Ansätze übertraf. Diese Erkenntnis wirft Fragen zur praktischen Attraktivität von Mehrfach‑Referenz‑Methoden auf.
Welche Linse du auf diese Meldung legen solltest
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Kontext ohne Glossar-Suche
Wenn du nach dieser Meldung weiterlernen willst
Von dieser Meldung direkt in Hub, Analyse und Nachbarthemen
Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.
Dieses Thema taucht in denselben KI-Entwicklungen regelmaessig mit auf und hilft beim groesseren Bild.