Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Evaluationsrahmen”
Forschung

Robustheit von Reasoning-LLMs: Wie stark sind ihre Gedankenketten gegen Störungen?<br/><p>Reasoning-LLMs erzeugen Schritt-für-Schritt-Gedankenketten, die die Leistung bei komplexen Aufgaben steigern und die Transparenz des Denkprozesses erhöhen. Doch wie widerstandsfähig sind diese Ketten, wenn sie gezielt gestört werden? Diese Frage beantwortet die neue Studie, die einen kontrollierten Evaluationsrahmen entwickelt hat, um die eigenen Gedankenketten eines Modells zu festen Zeitpunkten zu perturbieren.</p><p

arXiv – cs.AI
Forschung

<h1>LLMs als Lehrassistenten: Framework misst Lehrkompetenz anhand von Lehrplänen</h1> <p>Die neuesten Fortschritte in großen Sprachmodellen (LLMs) lassen darauf schließen, dass sie künftig als Lehrassistenten eingesetzt werden könnten. Doch bislang fehlt ein systematischer Weg, um ihre pädagogische Wirksamkeit zu prüfen. Ein neues, syllabus‑basierter Evaluationsrahmen füllt diese Lücke, indem er die Lernfortschritte von Studierenden nach mehrstufiger Anleitung misst.</p> <p>Der Ansatz beschränkt die „Lehre

arXiv – cs.AI