Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Biases”
Forschung

<p>Mehrere Biases in Reward-Modellen: Mechanistische Shaping-Technik reduziert Vorurteile</p> <p>In einer aktuellen Studie, veröffentlicht auf arXiv, wird gezeigt, dass Reward Models (RMs), die zur Online‑Anpassung von Sprachmodellen an menschliche Präferenzen eingesetzt werden, weiterhin erhebliche Verzerrungen aufweisen. Trotz fortschrittlicher Ansätze bleiben Probleme wie längsbezogene Verzerrungen, sycophantisches Verhalten und übermäßiges Selbstvertrauen bestehen.</p> <p>Die Untersuchung analysierte fü

arXiv – cs.AI
Forschung

<h1>Bias in Chatbot-Personas: Wie Rollenwahl LLM-Agenten schwächt</h1> <p>Moderne Sprachmodelle werden zunehmend als autonome Agenten eingesetzt, die weit mehr als Texte erzeugen – sie treffen Entscheidungen, planen und führen technische Aufgaben aus. Doch während die Auswirkungen von voreingenommenen Personas bei der Textgenerierung gut dokumentiert sind, blieb die Frage, wie solche Biases die Leistung von Agenten beeinflussen, lange unberücksichtigt.</p> <p>Eine neue Studie liefert erstmals systematische

arXiv – cs.AI
Forschung

Tiny Recursive Models zeigen bei ARC-AGI-1 beeindruckende Effizienz <p>Die Tiny Recursive Models (TRM) stellen eine kompakte Alternative zu großen Sprachmodellen dar, um Aufgaben des Abstraction and Reasoning Corpus (ARC) zu lösen. In einer neuen Analyse des ARC‑Prize‑TRM‑Checkpoints auf dem ARC‑AGI‑1‑Datensatz wurden vier zentrale Erkenntnisse gewonnen.</p> <p>Erstens verdeutlicht die Untersuchung, dass Test‑Time‑Augmentation und ein Mehrfach‑Voting‑Ansatz einen erheblichen Anteil am Erfolg ausmachen.

arXiv – cs.LG