AdversariaLLM: Einheitliches Tool zur Forschung an LLM‑Sicherheit
Die rasante Entwicklung von Forschung zu Sicherheit und Robustheit von Large Language Models (LLMs) hat ein fragmentiertes Ökosystem aus Implementierungen, Datensätzen und Evaluationsmethoden hervorgebracht. AdversariaL…