Neuro-symbolische Verifikation prüft, ob LLMs Befehle korrekt befolgen
Die Nutzung großer Sprachmodelle (LLMs) in kritischen Anwendungen stößt häufig an die Grenze, dass die Modelle nicht immer den vorgegebenen Anweisungen folgen. Solche Verstöße sind schwer zu erkennen und können in agentenbasierten Workflows zu Ketten von Fehlern führen, die letztlich Aufgaben scheitern lassen.