Forschung arXiv – cs.AI

LSR-Benchmark zeigt Schwächen bei Sicherheitsmechanismen in Westafrika

Die Sicherheit großer Sprachmodelle beruht bislang stark auf englischsprachigen Trainingsdaten. Wenn schädliche Absichten in Sprachen mit wenigen Ressourcen ausgedrückt werden, bleiben die üblichen Ablehnungsmechanismen…

≈1 Min. Lesezeit Originalquelle
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • Die Sicherheit großer Sprachmodelle beruht bislang stark auf englischsprachigen Trainingsdaten.
  • Wenn schädliche Absichten in Sprachen mit wenigen Ressourcen ausgedrückt werden, bleiben die üblichen Ablehnungsmechanismen oft aus.
  • Mit dem neuen LSR‑Benchmark (Linguistic Safety Robustness) wird erstmals systematisch gemessen, wie stark die Ablehnungsfähigkeit von Modellen bei westafrikanischen Spra…

Die Sicherheit großer Sprachmodelle beruht bislang stark auf englischsprachigen Trainingsdaten. Wenn schädliche Absichten in Sprachen mit wenigen Ressourcen ausgedrückt werden, bleiben die üblichen Ablehnungsmechanismen oft aus.

Mit dem neuen LSR‑Benchmark (Linguistic Safety Robustness) wird erstmals systematisch gemessen, wie stark die Ablehnungsfähigkeit von Modellen bei westafrikanischen Sprachen – Yoruba, Hausa, Igbo und Igala – abnimmt. Der Ansatz nutzt ein Dual‑Probe‑Evaluationsprotokoll, bei dem dieselben Modelle sowohl mit englischen als auch mit zielsprachlichen Testfragen konfrontiert werden.

Ein zentrales Feature ist der Refusal Centroid Drift (RCD), ein Maß dafür, wie viel des englischen Ablehnungsverhaltens verloren geht, wenn die schädliche Intention in einer der Zielsprachen formuliert wird. Bei der Bewertung von Gemini 2.5 Flash mit 14 kulturbezogenen Angriffsszenarien in vier Schadenskategorien blieb die Ablehnungsrate in Englisch bei rund 90 %. In den westafrikanischen Sprachen sank sie jedoch auf 35 – 55 %, wobei Igala die stärkste Verschlechterung zeigte (RCD = 0.55).

Der LSR‑Benchmark ist im Inspect‑AI‑Evaluation‑Framework integriert und steht als PR‑fertiger Beitrag im inspect_evals‑Repository der UK AISI zur Verfügung. Sowohl die Referenzimplementierung als auch das Benchmark‑Dataset sind öffentlich zugänglich.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich praktisch?
Ist das eher Signal, Produkt oder nur kurzfristiger Hype?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

Sicherheit großer Sprachmodelle
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
LSR-Benchmark
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
Refusal Centroid Drift
Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.
arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.