Suche

Finde Modelle, Firmen und Themen

Suche im News-Archiv nach Themen, die du dauerhaft verfolgen willst.

Ergebnisse für “Waffe”
Aktuell

General Shanahan warnt: LLMs dürfen keine tödlichen autonomen Waffen sein Der pensionierte General der US-Luftwaffe Jack Shanahan hat in einer Pressemitteilung seine Besorgnis über die potenzielle Nutzung von großen Sprachmodellen (LLMs) in vollständig autonomen, tödlichen Waffensystemen zum Ausdruck gebracht. Er betonte, dass LLMs in ihrer aktuellen Form nicht für solche Anwendungen geeignet seien und dass die Idee, sie in ein solches System zu integrieren, schlicht absurd sei. Shanahan kommentierte di

Gary Marcus – Marcus on AI
Forschung

<p>Alignment als Waffe: Angriff injectiert Bias in Sprachmodelle</p> <p>In einer neuen Studie, die auf arXiv veröffentlicht wurde, zeigen Forscher, wie Angreifer die Sicherheitsmechanismen großer Sprachmodelle (LLMs) ausnutzen können, um gezielt Vorurteile einzubringen. Der Angriff, der als Subversive Alignment Injection (SAI) bezeichnet wird, nutzt die „Alignment“-Funktion – die dafür sorgt, dass Modelle schädliche oder unsichere Anfragen ablehnen – um spezifische Themen zu blockieren und damit Bias zu erz

arXiv – cs.LG