Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Red-Teaming”
Forschung

<p>Neue Methode namens CORVUS schwächt Halluzinationsdetektoren von LLMs</p> <p>In einer kürzlich veröffentlichten Studie auf arXiv wird die Technik <strong>CORVUS</strong> vorgestellt, die es Angreifern ermöglicht, die internen Signale großer Sprachmodelle zu tarnen und damit gängige Halluzinationsdetektoren zu umgehen. Die Detektoren, die auf Messgrößen wie Unsicherheit, Geometrie des versteckten Zustands und Aufmerksamkeitsverteilungen basieren, gehen implizit davon aus, dass Halluzinationen erkennbare S

arXiv – cs.AI
Praxis

<h1>Mehrstufiges Crescendo-Red-Teaming mit Garak zur LLM-Sicherheitsbewertung</h1> <p>In einem praxisnahen Tutorial wird gezeigt, wie man mit Garak eine mehrstufige Red‑Teaming‑Pipeline entwickelt, die große Sprachmodelle (LLMs) unter zunehmendem Gesprächsdruck testet. Dabei wird ein iteratives Probe‑Tool eingesetzt, das zunächst harmlose Anfragen stellt und diese allmählich zu sensiblen Themen eskaliert. Ein leichtgewichtiger Erkennungsmechanismus bewertet die Modellantworten in Echtzeit und prüft, ob das

MarkTechPost