Sicherheits-Utility-Konflikte sind nicht global: Kopf-Level-Ausrichtung
Die Sicherheit von großen Sprachmodellen (LLMs) stellt ein komplexes Mehrzielproblem dar, bei dem die Optimierung von Sicherheitszielen häufig die allgemeinen Leistungsfähigkeiten beeinträchtigt. Traditionelle Ansätze…