KI-Modelle verwechseln Verbot mit Erlaubnis – Negationsfehler enthüllt
Wenn ein Nutzer einer KI sagt, jemand nicht etwas tun soll, soll das System das als Verbot interpretieren. In Wirklichkeit machen viele große Sprachmodelle genau das Gegenteil: Negierte Anweisungen werden als Bestätigun…