Six Sigma Agent: Zuverlässigkeit von LLMs durch Konsens und Redundanz
Große Sprachmodelle (LLMs) zeigen beeindruckende Fähigkeiten, bleiben jedoch von Natur aus probabilistisch. Diese Unsicherheit stellt ein zentrales Problem für den Einsatz in Unternehmensumgebungen dar, wo hohe Zuverlässigkeit unabdingbar ist.
Der neu vorgestellte Six Sigma Agent löst dieses Problem mit einer dreistufigen Architektur. Zunächst wird jede Aufgabe in einen Abhängigkeitsbaum atomarer Aktionen zerlegt. Anschließend führt ein „Micro‑Agent“-Cluster die gleiche Aufgabe n‑mal parallel aus, wobei jede Ausführung von unterschiedlichen LLMs stammt. Abschließend werden die Ergebnisse mittels dynamisch skalierender Konsensus‑Abstimmung aggregiert: die Ausgaben werden in Cluster gruppiert und das Ergebnis des Clusters mit den meisten Stimmen wird ausgewählt.
Mathematisch lässt sich zeigen, dass die Fehlerquote eines Systems, das n unabhängige Ausgaben mit Fehlerwahrscheinlichkeit p erzeugt, auf O(p⌈n/2⌉) reduziert wird. In der Praxis bedeutet das: Bei einer pro‑Aktion Fehlerquote von 5 % senkt ein Konsensus aus fünf Agenten die Fehlerwahrscheinlichkeit auf 0,11 %. Durch dynamische Skalierung auf 13 Agenten erreicht man sogar 3,4 Defects‑Per‑Million‑Opportunities (DPMO), was dem Six‑Sigma‑Standard entspricht.
In drei realen Unternehmensanwendungen wurde die Zuverlässigkeit des Six Sigma Agenten um 14 700‑fach gegenüber einer Einzelagenten‑Ausführung verbessert, während die Kosten um 80 % gesenkt wurden. Diese Ergebnisse zeigen eindeutig, dass die Zuverlässigkeit von KI‑Systemen vor allem aus systematischer Redundanz und Konsensus entsteht – nicht allein durch die Skalierung des Modells.