Anthropic durchsucht Claude-Chat nach DIY-Atomwaffen-Anfragen

The Register – Headlines Original ≈1 Min. Lesezeit
Anzeige

Anthropic hat einen Teil der Gespräche mit seinem KI-Modell Claude durchsucht, um beunruhigende Anfragen zu Atomwaffen zu erkennen.

Die Initiative folgt dem Prinzip, dass selbst raffinierte Terroristen öffentliche Internetdienste nutzen, um ihre Pläne zu schmieden. Durch die Analyse von Chatverläufen soll das Unternehmen potenzielle Bedrohungen frühzeitig identifizieren.

Der genaue Umfang der gescannten Konversationen bleibt vertraulich, doch Anthropic betont, dass die Maßnahme Teil seiner Sicherheitsstrategie ist, um die missbräuchliche Nutzung der KI zu verhindern.

Mit dieser Vorgehensweise setzt das Unternehmen ein klares Signal: Die Entwicklung und der Einsatz von KI sollen nicht für die Planung von Atomwaffen missbraucht werden.

Ähnliche Artikel