Claude kann jetzt Gespräche beenden – zum Schutz des Modells
Anzeige
Anthropic hat seinem Chatbot Claude die Möglichkeit verliehen, toxische Gespräche eigenständig zu beenden. Diese neue Funktion ist Teil einer umfassenden Initiative zum Modellwohlbefinden, die darauf abzielt, die Sicherheit und Stabilität der KI zu erhöhen.
Durch das Beenden von Gesprächen, die potenziell schädlich oder missbräuchlich sind, soll das Modell vor schädlichen Einflüssen geschützt werden. Die Maßnahme unterstreicht Anthropics Engagement, verantwortungsvolle KI-Entwicklung zu fördern und gleichzeitig die Nutzererfahrung zu verbessern.
Ähnliche Artikel
VentureBeat – AI
•
Anthropic startet neue Claude‑AI‑Funktionen für Schüler und Entwickler
ZDNet – Artificial Intelligence
•
Anthropic führt Lernmodi in Claude ein – mehr als nur Antworten
AI News (TechForge)
•
Anthropic details its AI safety strategy
VentureBeat – AI
•
Claude Sonnet 4 verarbeitet komplette Softwareprojekte in einem einzigen Aufruf
VentureBeat – AI
•
Anthropic’s Earnings Heavily Dependent on Two Clients in Cost War
Simon Willison – Blog
•
Anthropic führt neue Claude-Features ein: E-Mails, Nachrichten & Dateiuploads