Neue Methode reduziert Varianz bei Domain‑Adaptation

arXiv – cs.LG Original ≈1 Min. Lesezeit
Anzeige

Die neu entwickelte Technik, VaRDASS, setzt neue Maßstäbe für die Anpassung von Modellen an unterschiedliche Datenquellen. Durch gezielte Stichprobierung wird die Streuung der Diskrepanzschätzungen, die bei der unsupervised Domain Adaptation (UDA) häufig hoch ist, drastisch reduziert.

VaRDASS nutzt eine spezielle Stratified‑Sampling‑Strategie, um die beiden gängigsten Diskrepanzmaße – die Korrelationsausrichtung (Correlation Alignment) und die Maximum‑Mean‑Discrepancy (MMD) – effizienter zu schätzen. Für jedes Maß wurden maßgeschneiderte Stratifikationsziele entwickelt, die die Varianz theoretisch minimieren.

Die Autoren liefern sowohl erwartete als auch Worst‑Case‑Fehlergrenzen und zeigen, dass das vorgeschlagene Ziel für MMD unter bestimmten Annahmen optimal ist. Ein praktischer k‑Means‑ähnlicher Optimierungsalgorithmus wird vorgestellt und analysiert, wodurch die Methode leicht in bestehende Pipelines integriert werden kann.

In Experimenten auf drei etablierten Domain‑Shift‑Datensätzen konnte VaRDASS die Genauigkeit der Diskrepanzschätzungen deutlich verbessern und die Leistung auf dem Ziel‑Domain‑Datensatz steigern. Diese Fortschritte markieren einen wichtigen Schritt zur robusteren Anwendung von Machine‑Learning‑Modellen in der Praxis.

Ähnliche Artikel