SALMAN: Lokale Robustheitsanalyse von Sprachmodellen ohne Parameteränderungen
Die neuesten Fortschritte bei vortrainierten Transformer‑Modellen haben die Leistung in vielen NLP‑Aufgaben auf ein neues Niveau gehoben. Gleichzeitig wächst die Sorge um die Stabilität dieser Modelle, wenn sie in der Praxis eingesetzt werden und mit kleinen Eingabeveränderungen konfrontiert sind. Traditionelle Robustheitsansätze unterscheiden sich stark zwischen kleinen und großen Modellen und erfordern oft aufwändige, maßgeschneiderte Angriffe.