REFINE: Fehlerbasierte Rückmeldung verbessert multimodale KI-Logik
In den letzten Jahren haben große Sprachmodelle (LLMs) ihre Fähigkeit zum logischen Denken stark erweitert. Durch in‑Kontext‑Learning (ICL) können sie sich ohne erneutes Training an neue Aufgaben anpassen. Während frühere Ansätze vor allem korrekte Beispiele nutzten, zeigt die aktuelle Forschung, dass das Lernen aus Fehlern die Leistung signifikant steigern kann.