Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Benchmark”
Forschung

<p>DBC-Benchmark: Neue Governance-Schicht senkt Risiko bei LLMs um 36,8 %</p> <p>In einer neuen Studie wurde der Dynamic Behavioral Constraint (DBC) Benchmark vorgestellt – das erste empirische Verfahren, um die Wirksamkeit einer strukturierten, 150‑Kontroll‑Governance‑Schicht für große Sprachmodelle (LLMs) zu messen. Die Schicht, genannt MDBC (Madan DBC), wird während der Inferenz angewendet und ist unabhängig vom Modell, lässt sich an verschiedene Rechtsordnungen anpassen und ist auditierbar.</p> <p>Der D

arXiv – cs.AI
Forschung

<h1>Neues Benchmark M-QUEST bewertet Meme‑Toxizität mit semantischem Ansatz</h1> <p>Internet‑Memes sind ein mächtiges Kommunikationsmittel, doch ihre starke Abhängigkeit von Alltagswissen macht die Erkennung von toxischen Inhalten besonders schwierig. Um diesem Problem zu begegnen, hat ein internationales Forschungsteam ein neues, umfassendes Konzept entwickelt, das die wesentlichen Elemente eines Memes systematisch identifiziert und bewertet.</p> <p>Frühere Studien konzentrierten sich meist auf einzelne As

arXiv – cs.AI
Forschung

Neue interaktive Benchmarks: So testen wir KI wirklich<br/><p>Standard-Benchmarks werden zunehmend unzuverlässig, weil sie gesättigt, subjektiv und schlecht generalisierbar sind. Aus diesem Grund stellen die Autoren des arXiv‑Papiers (2603.04737v1) ein neues Evaluationsparadigma vor: Interaktive Benchmarks. Dabei wird die Fähigkeit eines Modells gemessen, aktiv Informationen zu beschaffen und damit seine Intelligenz zu demonstrieren.</p><p>Das Konzept umfasst zwei Hauptbereiche. In „Interactive Proofs“ arbe

arXiv – cs.AI