Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Shortcut”
Forschung

<p>Neues Paradigma für Moderation: Von sparsamen zu dichten Begründungen</p> <p>Die Sicherheit von Inhalten ist heute wichtiger denn je. Während textbasierte Moderationssysteme bereits hohe Erfolgsraten erzielen, bleiben multimodale Varianten – die Bild-, Video- und Audiodaten berücksichtigen – stark behindert durch Daten- und Supervisionssparsity. Klassische Ansätze, die ausschließlich auf binären Labels beruhen, führen häufig zu „Shortcut‑Learning“, bei dem Modelle oberflächliche Merkmale nutzen und die e

arXiv – cs.LG
Forschung

<h1>Spurious Rewards Paradox: RLVR lässt LLMs auf Kurzschluss zurückgreifen</h1> <p>Reinforcement Learning with Verifiable Rewards (RLVR) gilt als leistungsstarkes Verfahren zur Verbesserung der Argumentationsfähigkeit großer Sprachmodelle. Neueste Untersuchungen zeigen jedoch, dass Modelle wie Qwen 2.5 erhebliche Leistungssteigerungen erzielen, selbst wenn die Belohnungen falsch oder irreführend sind.</p> <p>Die Autoren beschreiben ein „Perplexity Paradox“, bei dem die Perplexität der Antwort‑Tokens sinkt,

arXiv – cs.LG