FuSaR: Fuzzification-Methode für Sicherheit-Logik-Balance in großen Modellen
Große Rechenmodelle (LRMs) haben in den letzten Jahren beeindruckende Leistungen in vielen Aufgabenbereichen gezeigt. Ihre Fähigkeit, komplexe Probleme zu durchdenken, ist bemerkenswert – doch gleichzeitig bleibt die Sicherheit dieser Modelle ein zentrales Problem.