DySTAN: Kombinierte Erkennung von Sitzverhalten und sozialem Kontext

arXiv – cs.AI Original ≈2 Min. Lesezeit
Anzeige

Ein neues Forschungsprojekt aus dem Bereich der mobilen Sensorik hat gezeigt, dass die gleichzeitige Erkennung von sitzenden Aktivitäten und dem sozialen Umfeld eines Nutzers die Genauigkeit von Kontext‑Erkennungssystemen deutlich steigern kann. Die Studie, die auf arXiv veröffentlicht wurde, stellt die Methode DySTAN (Dynamic Cross‑Stitch with Task Attention Network) vor, die beide Kontextdimensionen aus denselben Smartphone‑Sensoren – Beschleunigung, Gyroskop, Magnetometer und Rotationsvektor – gleichzeitig klassifiziert.

Zur Erhebung der Daten wurde die mobile App LogMe entwickelt, die passiv Sensordaten sammelt und die Nutzer stündlich zu kurzen Selbstberichten auffordert. Diese Berichte erfassen sowohl die Art der sitzenden Tätigkeit (z. B. Lernen, Vorlesung, Entspannen, Essen) als auch den sozialen Kontext (Allein, mit Freunden, in einer Gruppe). Das daraus resultierende Dual‑Label‑Datenset bildet die Grundlage für die Entwicklung von DySTAN.

DySTAN nutzt ein Multi‑Task‑Learning‑Framework, das task‑spezifische Schichten mit einer Cross‑Task‑Attention‑Mechanik kombiniert. Dadurch werden subtile Unterschiede zwischen den Aktivitäten und den sozialen Situationen besser modelliert. Im Vergleich zu einem herkömmlichen Single‑Task‑CNN‑BiLSTM‑GRU‑Modell verbessert DySTAN die Makro‑F1‑Score für sitzende Aktivitäten um 21,8 % und übertrifft sogar das stärkste Multi‑Task‑Baseline‑Modell, die Sluice‑Network‑Architektur, um 8,2 %.

Die Ergebnisse unterstreichen die Bedeutung, mehrere gleichzeitig auftretende Kontextdimensionen zu berücksichtigen, um die Genauigkeit und Robustheit von mobilen Kontext‑Erkennungssystemen zu erhöhen. DySTAN stellt damit einen wichtigen Schritt in Richtung intelligenterer, kontextsensitiver Smartphone‑Anwendungen dar.

Ähnliche Artikel