Anthropic durchsucht Claude-Chat nach DIY-Atomwaffen-Anfragen
Anzeige
Anthropic hat einen Teil der Gespräche mit seinem KI-Modell Claude durchsucht, um beunruhigende Anfragen zu Atomwaffen zu erkennen.
Die Initiative folgt dem Prinzip, dass selbst raffinierte Terroristen öffentliche Internetdienste nutzen, um ihre Pläne zu schmieden. Durch die Analyse von Chatverläufen soll das Unternehmen potenzielle Bedrohungen frühzeitig identifizieren.
Der genaue Umfang der gescannten Konversationen bleibt vertraulich, doch Anthropic betont, dass die Maßnahme Teil seiner Sicherheitsstrategie ist, um die missbräuchliche Nutzung der KI zu verhindern.
Mit dieser Vorgehensweise setzt das Unternehmen ein klares Signal: Die Entwicklung und der Einsatz von KI sollen nicht für die Planung von Atomwaffen missbraucht werden.
Ähnliche Artikel
VentureBeat – AI
•
Claude Sonnet 4 verarbeitet komplette Softwareprojekte in einem einzigen Aufruf
Simon Willison – Blog
•
Anthropic führt neue Claude-Features ein: E-Mails, Nachrichten & Dateiuploads
ZDNet – Artificial Intelligence
•
Claude kann jetzt Gespräche beenden – zum Schutz des Modells
VentureBeat – AI
•
Anthropic startet neue Claude‑AI‑Funktionen für Schüler und Entwickler
ZDNet – Artificial Intelligence
•
Anthropic führt Lernmodi in Claude ein – mehr als nur Antworten
AI News (TechForge)
•
Anthropic details its AI safety strategy