Interpreting Multi-Attribute Confounding through Numerical Attributes in Large Language Models
Eine neue Studie aus dem arXiv-Repository (ArXiv:2511.04053v1) beleuchtet, wie große Sprachmodelle (LLMs) mit numerischen Attributen umgehen und warum sie dabei Fehler machen. Die Forscher untersuchten, wie LLMs mehrere Zahlenwerte einer einzigen Entität intern verknüpfen und wie irrelevante numerische Kontexte diese Darstellungen verzerren.