FactoST‑v2: Universelles Spatio‑Temporales Modell für Zeit‑ und Raum‑Anpassung
Die neueste Version des Spatio‑Temporalen Foundation Models, FactoST‑v2, wurde auf arXiv veröffentlicht und erweitert die zuvor vorgestellte Konferenzarbeit deutlich. Das Modell verfolgt einen zukunftsweisenden Ansatz, der universelles zeitliches Lernen von domänenspezifischer räumlicher Anpassung trennt und dadurch eine echte Allzweckfähigkeit erreicht.
In der ersten Trainingsphase wird ein schlanker, encoder‑only‑Backbone mit zufälliger Sequenzmaskierung trainiert. Dieser Schritt erfasst zeitlich invariant auftretende Dynamiken und ermöglicht probabilistische Quantilvorhersagen über variable Zeiträume hinweg. Die zweite Phase nutzt einen kompakten Adapter, der mithilfe von Meta‑Adaptive‑Learning und Prompting rasch räumliche Sensibilität einführt.
Umfangreiche Tests in unterschiedlichen Anwendungsbereichen zeigen, dass FactoST‑v2 mit linearer Effizienz die aktuelle Spitzenleistung erzielt. Es übertrifft bestehende Foundation Models in Zero‑Shot‑ und Few‑Shot‑Szenarien und steht sogar den domänenspezifischen Expertenmodellen in der Nähe. Dieser factorisierte Ansatz bietet damit einen praktikablen, skalierbaren Weg zu wirklich universellen Spatio‑Temporalen Modellen.
Der komplette Code ist frei verfügbar unter https://github.com/CityMind-Lab/FactoST.