TAM Bench: Automatisierte ML‑Benchmarks für LLM‑Agenten
Mit dem neuen Benchmark TAM Bench wird die Bewertung von großen Sprachmodellen (LLMs) in End‑to‑End‑Machine‑Learning‑Workflows revolutioniert. Durch die Kombination von Browser‑Automatisierung und LLM‑gestützter Aufgabenakquise werden ML‑Herausforderungen aus Plattformen wie Kaggle, AIcrowd und Biendata automatisch gesammelt und strukturiert. Dabei deckt TAM Bench eine breite Palette von Datenmodalitäten ab – von Tabellen und Texten bis hin zu Bildern, Graphen und Audio.