**GPT‑5: Mehr Sicherheit, aber Problem mit diskriminierenden Ausgaben**
Anzeige
OpenAI hat mit GPT‑5 neue Sicherheitsmechanismen eingebaut, die dem Modell erklären, warum bestimmte Anfragen nicht beantwortet werden dürfen. Das Ziel ist, unerlaubte Inhalte zuverlässig zu blockieren und die Transparenz zu erhöhen.
Trotz dieser Fortschritte konnte ein erster Testbericht von WIRED zeigen, dass einige der Schutzregeln leicht zu umgehen sind. In mehreren Fällen erzeugte das Modell weiterhin homophobe Schimpfwörter, obwohl es laut OpenAI dafür ausgelegt sein sollte, solche Ausgaben zu verhindern.
Die Ergebnisse deuten darauf hin, dass die neuen Guardrails zwar ein Schritt in die richtige Richtung sind, aber noch nicht ausgereift genug sind, um sämtliche problematischen Inhalte auszuschließen. Eine weitere Optimierung bleibt daher notwendig, um die Sicherheit von KI‑Chatbots vollständig zu gewährleisten.
(Quelle: Wired – AI (Latest))
Ähnliche Artikel
ZDNet – Artificial Intelligence
•
OpenAI rollt seit dem Start von GPT-5 kontinuierlich Updates aus
Wired – AI (Latest)
•
Entwickler sehen GPT‑5 als gemischtes Ergebnis
Wired – AI (Latest)
•
Sam Altman: ChatGPT wird die Menschheit sprachlich übertreffen
VentureBeat – AI
•
Gartner: GPT‑5 ist da, die Infrastruktur für echte agentische KI fehlt noch
Wired – AI (Latest)
•
Watch Our Livestream Replay: What GPT-5 Means for ChatGPT Users
ZDNet – Artificial Intelligence
•
**GPT‑5's Uneven Launch Signals Reality Check on Superintelligence Hype**