Forschungsleiter hinter ChatGPTs Mental‑Health‑Projekt verlässt OpenAI
Anzeige
OpenAI hat bekannt gegeben, dass einer seiner führenden Forschungsleiter, der maßgeblich an der Entwicklung von Sicherheitsmaßnahmen für ChatGPT beteiligt war, das Unternehmen verlässt. Der Experte war Teil des Model‑Policy‑Teams, das zentrale Aspekte der KI‑Sicherheit steuert, insbesondere die Art und Weise, wie ChatGPT auf Nutzer in Krisensituationen reagiert.
Seine Arbeit hat die Richtlinien für den Umgang mit psychischen Notfällen in der KI-Interaktion geprägt und damit einen wichtigen Beitrag zur sicheren Nutzung von Sprachmodellen geleistet. Die Abreise des Forschers markiert einen bedeutenden Wandel für OpenAI, das weiterhin darauf abzielt, verantwortungsvolle KI‑Technologien zu entwickeln.
Ähnliche Artikel
Ars Technica – AI
•
OpenAI schließt riesiges Rechenzentrum-Deal mit Amazon
MIT Technology Review – Artificial Intelligence
•
OpenAI stellt GPT‑5 vor: Schnell, klug, bereit für alle
ZDNet – Artificial Intelligence
•
Google präsentiert Gemini 3: Schneller, klüger und Benchmark‑Champion
ZDNet – Artificial Intelligence
•
OpenAI startet Shopping-Tool: Schnell, spaßig, kostenlos – übertrifft es mich?
AI News (TechForge)
•
OpenAI startet Gruppenchats in ChatGPT – KI für Teamplanung
The Register – Headlines
•
LLM-generierte Malware wird besser, aber autonome Angriffe noch nicht bereit