Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Robustness”
Forschung

<h1>Indische KI-Modelle: Neuer Benchmark prüft Sicherheitsresistenz in 12 Sprachen</h1> <p>Die Sicherheit großer Sprachmodelle wird bislang fast ausschließlich in Englisch getestet – ein Ansatz, der die Schwachstellen in anderen Sprachen vernachlässigt. Mit dem neuen Benchmark <strong>Indic Jailbreak Robustness (IJR)</strong> wird das geändert. IJR bietet einen „judge‑free“ Test, der 45.216 Angriffs‑Prompts in zwölf indischen und südasiatischen Sprachen abdeckt und sowohl einen JSON‑Track mit vertraglich fe

arXiv – cs.AI
Forschung

<h1>Bias in Chatbot-Personas: Wie Rollenwahl LLM-Agenten schwächt</h1> <p>Moderne Sprachmodelle werden zunehmend als autonome Agenten eingesetzt, die weit mehr als Texte erzeugen – sie treffen Entscheidungen, planen und führen technische Aufgaben aus. Doch während die Auswirkungen von voreingenommenen Personas bei der Textgenerierung gut dokumentiert sind, blieb die Frage, wie solche Biases die Leistung von Agenten beeinflussen, lange unberücksichtigt.</p> <p>Eine neue Studie liefert erstmals systematische

arXiv – cs.AI
Forschung

<h1>Vielversprechende VLMs: Rotation‑Robustheit & Bias‑Reduktion</h1> <p>Vision‑Language‑Modelle (VLMs) und generative Bildmodelle haben in den letzten Jahren beeindruckende Leistungen bei multimodalen Aufgaben erzielt. Trotz dieser Erfolge bleiben Fragen zur Robustheit und Fairness unter Eingabe­transformationen, insbesondere Rotationen, weitgehend unbeantwortet.</p> <p>Die vorliegende Arbeit untersucht, wie Vorurteile in hochmodernen VLMs und generativen Modellen durch Bildrotationen und Verteilungssprüng

arXiv – cs.AI