LLMs als moralische Assistenten: Bewertung ihrer Entscheidungsfähigkeit
Die rasante Verbreitung großer Sprachmodelle hat in der Forschung neue Fragen zu ihrer moralischen Leistungsfähigkeit aufgeworfen. Obwohl zahlreiche Versuche unternommen wurden, LLMs an menschliche Werte auszurichten, bleiben die gängigen Tests meist oberflächlich: Sie prüfen vor allem das Endergebnis einer ethischen Entscheidung, nicht aber den Denkprozess dahinter.
In diesem Kontext stellt das neue Papier einen Schritt weiter: Es untersucht LLMs als „Artificial Moral Assistants“ (AMAs), also Systeme, die Menschen bei moralischen Überlegungen unterstützen sollen. Für einen AMA reicht eine reine Ausrichtung nicht aus – das Modell muss nicht nur problematische Situationen erkennen, sondern aktiv darüber nachdenken und zwischen widersprüchlichen Werten abwägen können.
Auf Basis philosophischer Literatur wurde ein formales Rahmenwerk entwickelt, das zentrale Fähigkeiten wie deduktives und abductives moralisches Denken definiert. Darauf aufbauend entstand ein neues Benchmark, mit dem die Leistung populärer Open‑Source‑LLMs getestet wurde. Die Ergebnisse zeigen deutliche Unterschiede zwischen den Modellen und weisen insbesondere auf Schwächen im abductiven Denken hin.
Die Arbeit verbindet theoretische Erkenntnisse aus der Philosophie mit praktischen Evaluationsmethoden und liefert damit wichtige Impulse für die Weiterentwicklung von LLMs als vertrauenswürdige moralische Begleiter.