Kryptografen beweisen: KI-Schutzmaßnahmen bleiben immer lückenhaft

Quanta Magazine – Machine Learning Original ≈1 Min. Lesezeit
Anzeige

Große Sprachmodelle wie ChatGPT sind mit Filtern ausgestattet, die verhindern, dass bestimmte Informationen weitergegeben werden.

Ein neuer mathematischer Beweis zeigt jedoch, dass solche Schutzmechanismen niemals vollkommen sicher sein können. Der Beitrag erschien erstmals auf Quanta Magazine.

Ähnliche Artikel