Forschung
Neue Distillationstechnik erhöht Angriffe auf LLM-basierte Empfehlungssysteme
Forscher haben ein neues Angriffskonzept entwickelt, das die Sicherheit von großen Sprachmodellen (LLM) in Empfehlungssystemen gefährdet. D…
arXiv – cs.AI