Bayessches Multi-Agent-Framework revolutioniert Low-Code-Plattform für Wissenschaft
Eine neue Low‑Code-Plattform für die Wissenschaft, die auf einem bayesschen, adversarialen Multi‑Agenten‑Framework basiert, wurde auf arXiv vorgestellt. Sie nutzt große Sprachmodelle (LLMs), um wissenschaftlichen Code automatisch zu generieren, und adressiert dabei die bislang bestehenden Probleme mit Zuverlässigkeit, Fehlerausbreitung in Multi‑Agent‑Workflows und der Bewertung in Bereichen mit unklaren Erfolgskriterien.
Das System besteht aus drei LLM‑basierten Agenten: Einem Task Manager, der Benutzereingaben in umsetzbare Pläne und adaptive Testfälle übersetzt; einem Code Generator, der potenzielle Lösungen erstellt; und einem Evaluator, der umfassendes Feedback liefert. Durch einen adversarialen Loop wird der Task Manager kontinuierlich Testfälle verfeinern, um den Code Generator herauszufordern, während die Prompt‑Verteilungen mithilfe bayesscher Prinzipien dynamisch angepasst werden.
Die bayessche Aktualisierung integriert Code‑Qualitätsmetriken wie funktionale Korrektheit, strukturelle Übereinstimmung und statische Analyse. Dadurch wird die Abhängigkeit von der Zuverlässigkeit der LLMs reduziert und die Unsicherheit bei der Bewertung wissenschaftlicher Aufgaben verringert. Der Ansatz optimiert gleichzeitig Tests und Code, was die Fehlerpropagation deutlich minimiert.
Ein weiterer Vorteil ist die erleichterte Mensch‑KI‑Zusammenarbeit: Die Plattform übersetzt nicht‑expertenhafte Eingaben in domänenspezifische Anforderungen und eliminiert die Notwendigkeit manueller Prompt‑Engineering‑Schritte. Benchmark‑Tests zeigen, dass die Plattform robuste Code‑Generierung ermöglicht und die Fehlerquote senkt. In einer interdisziplinären Aufgabe aus der Erd‑ und Geowissenschaft wurde die hohe Zuverlässigkeit und Leistungsfähigkeit des Systems bestätigt.