Claude kann jetzt Gespräche beenden – zum Schutz des Modells

ZDNet – Artificial Intelligence Original ≈1 Min. Lesezeit
Anzeige

Anthropic hat seinem Chatbot Claude die Möglichkeit verliehen, toxische Gespräche eigenständig zu beenden. Diese neue Funktion ist Teil einer umfassenden Initiative zum Modellwohlbefinden, die darauf abzielt, die Sicherheit und Stabilität der KI zu erhöhen.

Durch das Beenden von Gesprächen, die potenziell schädlich oder missbräuchlich sind, soll das Modell vor schädlichen Einflüssen geschützt werden. Die Maßnahme unterstreicht Anthropics Engagement, verantwortungsvolle KI-Entwicklung zu fördern und gleichzeitig die Nutzererfahrung zu verbessern.

Ähnliche Artikel