LLMs lernen kausale CARE-Framework übertrifft Algorithmen
In einer neuen Studie von arXiv (2511.16016v1) zeigen große Sprachmodelle (LLMs) zwar beeindruckende Fähigkeiten in vielen Aufgaben, doch sie bleiben bei der Erkennung kausaler Zusammenhänge hinter den Erwartungen zurück. Die Forscher untersuchten, wie LLMs auf ein kausales Entdeckungsproblem reagieren, und fanden heraus, dass die Modelle vorwiegend die semantische Bedeutung von Variablennamen nutzen und die beobachteten Daten vernachlässigen.