**GPT‑5: Mehr Sicherheit, aber Problem mit diskriminierenden Ausgaben**
OpenAI hat mit GPT‑5 neue Sicherheitsmechanismen eingebaut, die dem Modell erklären, warum bestimmte Anfragen nicht beantwortet werden dürfen. Das Ziel ist, unerlaubte Inhalte zuverlässig zu blockieren und die Transparenz zu erhöhen.
Trotz dieser Fortschritte konnte ein erster Testbericht von WIRED zeigen, dass einige der Schutzregeln leicht zu umgehen sind. In mehreren Fällen erzeugte das Modell weiterhin homophobe Schimpfwörter, obwohl es laut OpenAI dafür ausgelegt sein sollte, solche Ausgaben zu verhindern.
Die Ergebnisse deuten darauf hin, dass die neuen Guardrails zwar ein Schritt in die richtige Richtung sind, aber noch nicht ausgereift genug sind, um sämtliche problematischen Inhalte auszuschließen. Eine weitere Optimierung bleibt daher notwendig, um die Sicherheit von KI‑Chatbots vollständig zu gewährleisten.
(Quelle: Wired – AI (Latest))