OpenAI prüft Altersvorhersage, um ChatGPT vor schädlichen Inhalten zu schützen
OpenAI hat ein neues Altersvorhersagemodell eingeführt, das prüft, ob ChatGPT‑Nutzer alt genug sind, um sensible oder potenziell schädliche Inhalte zu sehen. Das Unternehmen betont, dass der Schritt dazu beitragen soll, Kinder vor unangemessenen Themen zu schützen und gleichzeitig die Monetarisierungsoptionen für Erwachsene sicherer zu gestalten.
Der Algorithmus analysiert Verhaltensmuster und Interaktionsdaten, um eine möglichst genaue Altersabschätzung zu liefern. Sobald das Modell feststellt, dass ein Nutzer unter dem gesetzlichen Mindestalter liegt, werden ihm bestimmte Inhalte automatisch gesperrt und alternative, kinderfreundliche Optionen angeboten.
OpenAI erklärt, dass die Technologie Teil einer umfassenderen Strategie ist, die Nutzererfahrung zu verbessern und gleichzeitig die Verantwortung gegenüber jüngeren Zielgruppen zu übernehmen. Durch die Kombination von KI‑gestützter Altersprüfung und gezielten Inhaltsfiltern will das Unternehmen sicherstellen, dass ChatGPT sowohl für Erwachsene als auch für Kinder ein sicheres und bereicherndes Erlebnis bietet.