Forschung
Neue Methode CADA verbessert Sicherheit von Sprachmodellen ohne Hilfsverlust
Die Sicherstellung, dass große Sprachmodelle (LLMs) Sicherheitsprinzipien einhalten, ohne dabei harmlose Anfragen abzulehnen, bleibt eine z…
arXiv – cs.AI