SproutBench: Neuer Benchmark prüft Sicherheit von KI für Kinder und Jugendliche

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Mit der rasanten Verbreitung großer Sprachmodelle (LLMs) in Anwendungen für Kinder und Jugendliche wird deutlich, dass die bestehenden Sicherheitsrahmen, die vorwiegend für Erwachsene entwickelt wurden, die besonderen Entwicklungsrisiken von Minderjährigen vernachlässigen. Forscher haben daher die Lücken in den aktuellen Benchmarks aufgedeckt und zeigen auf, dass diese kaum die kognitiven, emotionalen und sozialen Gefahren abdecken, die für die Altersgruppen Frühkindheit (0–6 Jahre), Mittelkindheit (7–12 Jahre) und Adoleszenz (13–18 Jahre) relevant sind.

Um diese Lücken zu schließen, wurde SproutBench entwickelt – ein innovatives Evaluationspaket mit 1 283 entwicklungsorientierten Adversarial‑Prompts. Die Prompts prüfen gezielt Risiken wie emotionale Abhängigkeit, Verletzungen der Privatsphäre und die Nachahmung gefährlicher Verhaltensweisen. Durch eine gründliche Analyse von 47 unterschiedlichen LLMs konnten die Autoren signifikante Sicherheitslücken aufdecken. Dabei zeigte sich eine starke Korrelation zwischen den Dimensionen Sicherheit und Risikoprävention, während die Interaktivität im Gegensatz zur Altersangemessenheit stand.

Die Ergebnisse liefern konkrete Handlungsempfehlungen für die Gestaltung und den Einsatz von KI-Systemen, die speziell auf Kinder und Jugendliche ausgerichtet sind. SproutBench bietet damit ein praxisnahes Werkzeug, um die Entwicklung kinderfreundlicher KI‑Anwendungen sicherer und verantwortungsvoller zu gestalten.

Ähnliche Artikel