Rethinking Toxicity Evaluation in Large Language Models: A Multi-Label Perspective
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
GUITester: Automatisierte GUI‑Tests mit KI – neue Benchmark und Framework
arXiv – cs.AI
•
A^2Flow: Automatisierte Agenten-Workflow-Generierung mit adaptiven Operatoren
arXiv – cs.AI
•
SPAN: Benchmark für interkalenderische Zeitlogik von LLMs
arXiv – cs.AI
•
HardcoreLogic: Benchmark prüft Logikmodelle mit seltenen Rätselvarianten
arXiv – cs.AI
•
FATHOMS-RAG: A Framework for the Assessment of Thinking and Observation in Multimodal Systems that use Retrieval Augmented Generation
arXiv – cs.AI
•
TripScore: Benchmarking and rewarding real-world travel planning with fine-grained evaluation