Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Online‑Anpassung”
Forschung

<p>Mehrere Biases in Reward-Modellen: Mechanistische Shaping-Technik reduziert Vorurteile</p> <p>In einer aktuellen Studie, veröffentlicht auf arXiv, wird gezeigt, dass Reward Models (RMs), die zur Online‑Anpassung von Sprachmodellen an menschliche Präferenzen eingesetzt werden, weiterhin erhebliche Verzerrungen aufweisen. Trotz fortschrittlicher Ansätze bleiben Probleme wie längsbezogene Verzerrungen, sycophantisches Verhalten und übermäßiges Selbstvertrauen bestehen.</p> <p>Die Untersuchung analysierte fü

arXiv – cs.AI
Forschung

<p>Large Language Models (LLMs) stoßen häufig an die Grenze ihres „Wissens-Cutoffs“, weil ihre festgelegten Parameter keine neuen Informationen direkt aufnehmen können. Traditionell wird dafür Supervised Fine‑Tuning (SFT) eingesetzt, das zwar Fakten aktualisiert, aber selten die Fähigkeit verbessert, diese neuen Daten in Antworten oder Entscheidungen zu nutzen.</p>

Reinforcement Learning (RL) kann hingegen das nötige Denkvermögen vermitteln, ist jedoch wegen des hohen Rechenaufwands kaum für schnelle O…
arXiv – cs.LG