Aktives Konzeptlernen: LLMs und Bayessche Updates im Fokus
In der neuesten Studie wird gezeigt, wie ein neuro-symbolischer Bayesscher Lernalgorithmus, der von großen Sprachmodellen (LLMs) generierte Programme nutzt, aktiv Konzepte erlernt. Der Lernprozess wählt gezielt Instanzen aus, um Unsicherheit über zugrunde liegende Regeln zu verringern, und aktualisiert gleichzeitig die Hypothesen mittels Bayesscher Gewichtung.
Der Vergleich zwischen einem rationalen aktiven Lernenden, der die erwartete Informationsgewinnung (EIG) maximiert, und einer menschlich inspirierten Positiven-Test-Strategie (PTS) liefert interessante Erkenntnisse. Während EIG bei komplexen, fehlerbehafteten Regeln besonders effektiv ist, zeigt es bei einfachen Konzepten Schwächen, weil die diagnostisch wertvollen Grenzfragen die Posteriorverteilung in Bereiche führen, in denen das LLM ungültige oder zu spezifische Programme erzeugt.
Die PTS hingegen, obwohl weniger informationsoptimiert, wählt „sichere“ Fragen, die die Gültigkeit der Vorschläge bewahren. Dadurch erreicht sie eine schnellere Konvergenz bei einfachen Regeln. Die Ergebnisse deuten darauf hin, dass das Phänomen des „Bestätigungsfehlers“ nicht notwendigerweise ein kognitiver Irrtum ist, sondern eine rationale Anpassung darstellt, um die Inferenz in offenen, sparsamen Hypothesenräumen handhabbar zu halten.