Ein Leck reicht: Vortrainierte Modelle erhöhen Jailbreak‑Risiken
Finetuning von vortrainierten großen Sprachmodellen (LLMs) ist heute die Standardmethode, um spezialisierte Anwendungen zu entwickeln. Doch wie sicher ist dieser Ansatz wirklich? Insbesondere bleibt unklar, ob die bei d…