Accenture Research Introduce MCP-Bench: A Large-Scale Benchmark that Evaluates LLM Agents in Complex Real-World Tasks via MCP Servers
Anzeige
Ähnliche Artikel
arXiv – cs.AI
•
DeepPlanning: Benchmark für Agentenplanung mit überprüfbaren Grenzen
MarkTechPost
•
Anthropic AI Releases Petri: An Open-Source Framework for Automated Auditing by Using AI Agents to Test the Behaviors of Target Models on Diverse Scenarios
arXiv – cs.AI
•
RuleFlow: Wiederverwendbare Optimierungen für Pandas-Programme mit LLMs
arXiv – cs.AI
•
JADE: Dynamische Bewertung von KI-Agenten für offene Fachaufgaben
arXiv – cs.AI
•
CoS: Dynamisches Routing für LLMs steigert Genauigkeit um 65 % bei bAbI
arXiv – cs.AI
•
Neues Benchmark deckt Schwächen großer Sprachmodelle im Mathematik‑Denken auf