LLMs bleiben regelkonform trotz emotionaler Einflüsse
Eine aktuelle Untersuchung von Forschern aus dem Bereich der künstlichen Intelligenz hat ein überraschendes Ergebnis geliefert: Trotz der bekannten Empfindlichkeit von Large Language Models (LLMs) gegenüber kleinen Prompt‑Veränderungen zeigen sie eine bemerkenswerte Stabilität gegenüber emotionalen Rahmenbedingungen. Das Phänomen, das die Autoren als „Paradox der Robustheit“ bezeichnen, legt nahe, dass die Mechanismen, die LLMs zu sycophantischem Verhalten führen, nicht zwangsläufig ihre Fähigkeit beeinträchtigen, logische Regeln einzuhalten.