KI-gestützte Codebewertung in CS1: Direkt- vs. Reverse-Ansatz im Vergleich
In Einsteigerkursen der Informatik ist die manuelle Bewertung von Programmieraufgaben oft mühsam und kann zu Inkonsistenzen führen. Während Unit‑Tests häufig zur automatischen Prüfung eingesetzt werden, liefern sie meist nur ein binäres Ergebnis und keine Teilnoten. Durch die rasante Entwicklung großer Sprachmodelle (LLMs) eröffnet sich die Möglichkeit, Code automatisch, skalierbar und objektiver zu bewerten.
Die Studie vergleicht zwei KI‑basierte Bewertungsansätze. Beim Direct-Ansatz wendet das Modell ein festgelegtes Bewertungsschema direkt auf den Schülercode an. Der Reverse-Ansatz hingegen lässt das Modell zunächst Fehler beheben und ermittelt anschließend die Note anhand der Art und Anzahl der Korrekturen. Beide Methoden wurden sowohl auf der ursprünglichen Skala des Dozenten als auch auf einer zehnfach erweiterten Skala getestet, um die Wirkung des Bewertungsbereichs auf die Genauigkeit zu untersuchen.
Die Ergebnisse zeigen, dass der Direct-Ansatz schneller und unkomplizierter ist, jedoch weniger differenzierte Bewertungen liefert. Der Reverse-Ansatz erzeugt dagegen feinere Noten, weil er den Aufwand der Fehlerbehebung berücksichtigt. Beide Verfahren erfordern jedoch sorgfältiges Prompt‑Engineering, insbesondere wenn Teilnoten vergeben und logische Fehler behandelt werden sollen.
Zur weiteren Validierung wurden synthetische Schülerprogramme mit Gemini Flash 2.0 generiert, wodurch die KI‑Bewertung auf einer breiteren Palette kontrollierter Fehler und Schwierigkeitsgrade geprüft werden konnte. Die Analyse hebt die jeweiligen Stärken und Grenzen beider Ansätze hervor und liefert wertvolle Hinweise für die praktische Umsetzung von KI‑gestützter Codebewertung in der Lehre.