PreFlect: Von retrospektiver zu prospektiver Reflexion bei LLM-Agenten
PreFlect ist ein neu entwickeltes Verfahren, das die Art und Weise, wie große Sprachmodell‑Agenten ihre Handlungen reflektieren, grundlegend verändert. Während herkömmliche Ansätze die Agenten erst nach einem Fehler analysieren und dann korrigieren, kritisiert und verfeinert PreFlect die geplanten Aktionen bereits vor ihrer Ausführung.
Das System extrahiert aus vergangenen Agenten‑Trajektorien systematisch typische Planungsfehler und erkennt wiederkehrende Erfolgsmuster. Auf dieser Basis kann PreFlect potenzielle Stolpersteine frühzeitig identifizieren und die Strategie anpassen, bevor die Aufgabe überhaupt gestartet wird.
Zusätzlich bietet PreFlect einen dynamischen Re‑Planning‑Mechanismus, der während der Ausführung sofort auf unerwartete Abweichungen reagiert und den Plan bei Bedarf neu justiert. In umfangreichen Benchmarks hat PreFlect die Gesamtleistung von Agenten auf komplexen, realweltlichen Aufgaben deutlich gesteigert und dabei sowohl etablierte reflektionsbasierte Baselines als auch mehrere fortgeschrittene Agentenarchitekturen übertroffen.
Der Quellcode wird unter https://github.com/wwwhy725/PreFlect zur Verfügung gestellt.