**GPT‑5: Mehr Sicherheit, aber Problem mit diskriminierenden Ausgaben**
Anzeige
OpenAI hat mit GPT‑5 neue Sicherheitsmechanismen eingebaut, die dem Modell erklären, warum bestimmte Anfragen nicht beantwortet werden dürfen. Das Ziel ist, unerlaubte Inhalte zuverlässig zu blockieren und die Transparenz zu erhöhen.
Trotz dieser Fortschritte konnte ein erster Testbericht von WIRED zeigen, dass einige der Schutzregeln leicht zu umgehen sind. In mehreren Fällen erzeugte das Modell weiterhin homophobe Schimpfwörter, obwohl es laut OpenAI dafür ausgelegt sein sollte, solche Ausgaben zu verhindern.
Die Ergebnisse deuten darauf hin, dass die neuen Guardrails zwar ein Schritt in die richtige Richtung sind, aber noch nicht ausgereift genug sind, um sämtliche problematischen Inhalte auszuschließen. Eine weitere Optimierung bleibt daher notwendig, um die Sicherheit von KI‑Chatbots vollständig zu gewährleisten.
(Quelle: Wired – AI (Latest))
Ähnliche Artikel
MIT Technology Review – Artificial Intelligence
•
DeepMind-Chef kritisiert OpenAI: „Das ist peinlich“ – KI-Gläubige im Fokus
ZDNet – Artificial Intelligence
•
Der schnellste KI-Chatbot kommt nicht von OpenAI, Anthropic oder Google
The Register – Headlines
•
EU untersucht Meta, nachdem WhatsApp Konkurrenz‑AI blockiert
VentureBeat – AI
•
Dankbarkeit für KI 2025: OpenAI liefert neue Meilensteine
Simon Willison – Blog
•
KI‑Labore trainieren für Pelikan auf Fahrrad? So erkennt man es!
VentureBeat – AI
•
Moonshot's Kimi K2 Thinking emerges as leading open source AI, outperforming GPT-5, Claude Sonnet 4.5 on key benchmarks