Forschung
Ein Leck reicht: Vortrainierte Modelle erhöhen Jailbreak‑Risiken
Finetuning von vortrainierten großen Sprachmodellen (LLMs) ist heute die Standardmethode, um spezialisierte Anwendungen zu entwickeln. Doch…
arXiv – cs.AI