Fine‑Tuning: Brücke zwischen SFT und RL – bessere Generalisierung für LLMs
Supervised Fine‑Tuning (SFT) ist die gängige Methode, um große Sprachmodelle (LLMs) für neue Aufgaben zu adaptieren. Dabei werden die Modelle anhand von Experten‑Demonstrationsdatensätzen trainiert, was die Implementierung vereinfacht und schnell zu Experten‑ähnlichem Verhalten führt. Allerdings zeigen sich bei SFT‑Modellen häufig Einschränkungen in der Generalisierung, wenn sie auf unbekannte Situationen stoßen.