Forschung arXiv – cs.AI

ACAR: Adaptive Routing für Multi-Model-Ensemble mit auditierbarem Entscheidungsweg

ACAR (Adaptive Complexity and Attribution Routing) ist ein neues Messframework, das die Orchestrierung mehrerer KI‑Modelle unter vollständig nachvollziehbaren Bedingungen untersucht. Durch die Berechnung der Selbstkonsi…

≈1 Min. Lesezeit Originalquelle
Visuelle Illustration fuer KI-Kontext
Kernaussagen
Das nimmst du aus dem Beitrag mit
  • ACAR (Adaptive Complexity and Attribution Routing) ist ein neues Messframework, das die Orchestrierung mehrerer KI‑Modelle unter vollständig nachvollziehbaren Bedingunge…
  • Durch die Berechnung der Selbstkonsistenz‑Varianz (σ) aus drei Probe‑Samples entscheidet ACAR, ob ein Task mit einem einzelnen Modell, einem Zwei‑Modell‑Ensemble oder ei…
  • Die Implementierung läuft auf TEAMLLM, einer deterministischen Ausführungsplattform, die unveränderbare Artefakte und komplette Entscheidungs‑Traces liefert.

ACAR (Adaptive Complexity and Attribution Routing) ist ein neues Messframework, das die Orchestrierung mehrerer KI‑Modelle unter vollständig nachvollziehbaren Bedingungen untersucht. Durch die Berechnung der Selbstkonsistenz‑Varianz (σ) aus drei Probe‑Samples entscheidet ACAR, ob ein Task mit einem einzelnen Modell, einem Zwei‑Modell‑Ensemble oder einem Drei‑Modell‑Ensemble ausgeführt wird.

Die Implementierung läuft auf TEAMLLM, einer deterministischen Ausführungsplattform, die unveränderbare Artefakte und komplette Entscheidungs‑Traces liefert. ACAR nutzt die σ‑Metrik, um Aufgaben dynamisch zu routen, ohne dass lernbasierte Komponenten erforderlich sind.

In einer umfangreichen Evaluation wurden 1 510 Aufgaben aus vier Benchmarks – MathArena, Reasoning Gym, LiveCodeBench und SuperGPQA – mit den Modellen Claude Sonnet 4, GPT‑4o und Gemini 2.0 Flash getestet. ACAR erreichte 55,6 % Genauigkeit, was einen leichten, aber signifikanten Anstieg gegenüber dem Zwei‑Modell‑Baseline von 54,4 % darstellt. Gleichzeitig konnte bei 54,2 % der Aufgaben das vollständige Ensembling vermieden werden, was Rechenressourcen spart.

Die Studie dokumentiert auch negative Ergebnisse: Die Ergänzung von Retrieval‑Augmentation senkte die Genauigkeit um 3,4 % aufgrund niedriger semantischer Übereinstimmung. Außerdem zeigte sich ein „Agreement‑but‑Wrong“-Fehler, bei dem Modelle bei falschen Antworten vollständig übereinstimmen und keine Ensemble‑Korrektur möglich ist. Abschließend erwiesen sich Attributionsschätzungen, die auf Proxy‑Signalen wie Antwort‑Ähnlichkeit und Entropie basieren, als schwach korreliert.

Einordnen in 60 Sekunden

Welche Linse du auf diese Meldung legen solltest

Dieses Thema ist relevant, weil es zeigt, wie sich KI-Produkte, Modelle oder Rahmenbedingungen in der Praxis verschieben.

Achte zuerst darauf, was sich fuer Nutzer, Builder oder Unternehmen konkret veraendert und ob daraus ein nachhaltiger Trend entsteht.

Was veraendert sich fuer Nutzer oder Builder konkret?
Ist das ein nachhaltiger Trend oder nur ein kurzes Signal?
Begriffe zum Einordnen

Kontext ohne Glossar-Suche

arXiv – cs.AI
Diese Quelle setzt den Ausgangspunkt fuer die Meldung. Pruefe immer, ob sie eher Forschung, Produktmarketing oder Praxisperspektive liefert.