AdversariaLLM: Einheitliches Tool zur Forschung an LLM‑Sicherheit
Die rasante Entwicklung von Forschung zu Sicherheit und Robustheit von Large Language Models (LLMs) hat ein fragmentiertes Ökosystem aus Implementierungen, Datensätzen und Evaluationsmethoden hervorgebracht. AdversariaLLM soll dieses Problem lösen und die Vergleichbarkeit sowie Reproduzierbarkeit in der LLM‑Forschung deutlich verbessern.