LoopBench: LLM‑Schwärme entwickeln neue Strategien zur Symmetriebrechung
In einer wegweisenden Studie wird das neue Benchmark‑Tool LoopBench vorgestellt, das die Kooperationsfähigkeit von Large Language Models (LLMs) in verteilten Systemen untersucht. Die Autoren zeigen, dass LLMs zunehmend als autonome Agenten eingesetzt werden, deren Fähigkeit zur Koordination jedoch noch wenig erforscht ist.
LoopBench konzentriert sich auf das klassische Problem der Graphenfärbung bei ungeraden Zyklen (C₃, C₅, C₁₁) mit einer begrenzten Farbpalette. In solchen Szenarien führen deterministische, nicht kommunizierende Agenten zu endlosen Schleifen. Durch die Einführung eines „Strategy‑Passing“-Mechanismus, der als konsistentes Gedächtnis fungiert, können Agenten jedoch neue Wege finden, um Deadlocks zu vermeiden.
Die Ergebnisse zeigen, dass herkömmliche LLMs und klassische Heuristiken bei dieser Aufgabe stark zurückbleiben. Fortgeschrittene, reasoning‑orientierte Modelle – beispielsweise O3 – entwickeln hingegen effektive Strategien, um die Symmetrie zu brechen und die Färbung erfolgreich abzuschließen. LoopBench eröffnet damit ein neues Forschungsfeld, in dem emergente, sprachbasierte Algorithmen für kollektive Intelligenz getestet und weiterentwickelt werden können.