Rückwärtsdenken steigert LLMs bei fehlenden Infos
Neues Forschungsergebnis aus dem arXiv-Repository zeigt, dass ein Ansatz des Rückwärtsdenkens die Erkennung von fehlenden Informationen in großen Sprachmodellen (LLMs) deutlich verbessert. Während klassische Vorwärtsver…