Transformer‑World‑Models: Speichermechanismen verlängern Vorhersagehorizonte
In der neuesten Studie von ArXiv 2512.06983v1 wird untersucht, wie Transformer‑basierte Weltmodelle ihre Gedächtnisleistung verbessern können. Weltmodelle ermöglichen es Agenten, innerhalb imaginärer Umgebungen zu planen, indem sie zukünftige Zustände anhand vergangener Beobachtungen und Aktionen vorhersagen. Ihre Fähigkeit, über lange Zeiträume zu planen, ist jedoch stark durch die effektive Speicherspanne der zugrunde liegenden Architektur begrenzt.