<p>LLMs scheitern bei Mehrschritt-Logik: Positionseffekt als schwächstes Glied</p> <p>Neues Forschungsergebnis aus dem arXiv-Preprint <em>arXiv:2601.12499v1</em> zeigt, dass selbst hochskalierte Sprachmodelle bei mehrstufigen Fragen-Antwort-Aufgaben (Multi-Hop QA) stark unter einem Positionsbias leiden. Dieser Bias führt dazu, dass wichtige Beweisdaten an bestimmten Stellen im Text übersehen werden, was die Gesamtleistung der Modelle drastisch reduziert.</p> <p>Um die Ursache des Problems zu klären, haben d

arXiv – cs.AI Original
Anzeige