Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Selbstvertrauen”
Forschung

<p>Mehrere Biases in Reward-Modellen: Mechanistische Shaping-Technik reduziert Vorurteile</p> <p>In einer aktuellen Studie, veröffentlicht auf arXiv, wird gezeigt, dass Reward Models (RMs), die zur Online‑Anpassung von Sprachmodellen an menschliche Präferenzen eingesetzt werden, weiterhin erhebliche Verzerrungen aufweisen. Trotz fortschrittlicher Ansätze bleiben Probleme wie längsbezogene Verzerrungen, sycophantisches Verhalten und übermäßiges Selbstvertrauen bestehen.</p> <p>Die Untersuchung analysierte fü

arXiv – cs.AI
Forschung

<p>LLMs messen ihr Selbstvertrauen: Psychometrische Studie enthüllt Unterschiede</p> <p>Eine neue Untersuchung auf arXiv zeigt, dass große Sprachmodelle (LLMs) in der Lage sind, ihr eigenes Selbstvertrauen zu simulieren. Dafür wurde die zehnteilige General Self-Efficacy Scale (GSES) auf zehn verschiedene LLMs angewendet, die in vier Szenarien getestet wurden: ohne Aufgabe, rechnerisches Denken, sozialer Kontext und Zusammenfassung.</p> <p>Die Ergebnisse sind bemerkenswert stabil – die Modelle liefern bei wi

arXiv – cs.AI
Forschung

<p>KI-Modelle nutzen Selbstvertrauen zur effizienten Problemlösung</p> <p>In einer neuen Studie wird ein Ansatz vorgestellt, der große Sprachmodelle mit einem dynamischen Denkbudget ausstattet. Durch die Einführung eines „Critic“-Modells, das die eigene Argumentation periodisch auf Vertrauen prüft, kann das System entscheiden, ob die Lösung bereits ausreichend sicher ist oder ob weitere Rechenzyklen nötig sind. Sobald ein festgelegtes Vertrauensniveau erreicht ist, wird die Berechnung frühzeitig beendet.</p

arXiv – cs.AI