LLM‑Sicherheit: Kontextabhängige Risiken bei Finanz‑ und Gesundheitsratgebern

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Eine neue Studie aus dem arXiv‑Repository beleuchtet, wie große Sprachmodelle (LLMs) bei der Beratung zu Finanz- und Gesundheitsfragen die Sicherheit für die Nutzer beeinflussen. Dabei wird deutlich, dass die Bewertung der Gefährdung stark vom Kontext des jeweiligen Nutzers abhängt.

Die Forscher haben die Modelle GPT‑5, Claude Sonnet 4 und Gemini 2.5 Pro auf ihre Antworten zu finanziellen und gesundheitlichen Themen getestet. Dabei wurden verschiedene Nutzerprofile simuliert – von allgemein unbedenklich bis hin zu besonders verletzlichen Gruppen. Die Ergebnisse zeigen, dass Evaluatoren, die keine Informationen über die Nutzerumstände haben, die Antworten deutlich sicherer einstufen als solche, die den Kontext kennen.

Ein besonders auffälliger Befund ist, dass selbst wenn die Prompts mit realistischer Nutzerinformation angereichert werden – so wie die Nutzer selbst angeben würden, sie preiszugeben – die Sicherheitsbewertungen nicht signifikant steigen. Das bedeutet, dass bloßes Einfügen von Kontext in die Eingabe nicht ausreicht, um die Sicherheitsermittlung zu verbessern.

Die Studie unterstreicht, dass echte Nutzer‑Wohlfühl‑Sicherheitsbewertungen noch stark unterentwickelt sind. Rahmenwerke wie die OECD‑Klassifikation betonen bereits die Notwendigkeit, individuelle Risiken zu berücksichtigen. Um die Sicherheit von LLM‑Anwendungen wirklich zu gewährleisten, müssen Evaluationsprozesse künftig gezielt unterschiedliche Nutzerprofile und deren spezifische Kontexte einbeziehen.

Ähnliche Artikel