Verteilungsabgleich verbessert semi‑supervised kontrastives Lernen

arXiv – cs.AI Original ≈1 Min. Lesezeit
Anzeige

Die rasante Entwicklung von Deep‑Learning‑Modellen hat die Bildklassifikation in der überwachten Lernphase stark vorangebracht. Gleichzeitig bleibt die Beschaffung von gelabelten Daten teuer und zeitaufwendig, was die Forschung zu unüberwachten Ansätzen wie kontrastivem Lernen vorantreibt. In der Praxis sind jedoch vollständig unlabeled Datensätze selten, sodass semi‑supervised Lernmethoden – bei denen ein kleiner Anteil gelabelter Daten mit einer großen Menge unlabeled Daten kombiniert wird – besonders relevant sind.

Ein bewährter Ansatz im semi‑supervised kontrastiven Lernen besteht darin, unlabeled Bilder mit Pseudo‑Labels zu versehen und diese anschließend wie echte Labels zu behandeln. Die vorliegende Arbeit geht einen Schritt weiter: Sie integriert einen Verteilungsabgleich zwischen den Feature‑Embeddings der gelabelten und unlabeled Daten. Durch die Ausrichtung der beiden Verteilungen wird die Konsistenz der Lernrepräsentationen erhöht und die Klassifikationsgenauigkeit signifikant gesteigert.

Die Autoren demonstrieren die Wirksamkeit ihres Ansatzes an mehreren Bilddatensätzen und zeigen, dass die Kombination aus Pseudo‑Labeling und Verteilungsabgleich die Leistung über die üblichen semi‑supervised Baselines hinaus verbessert. Diese Erkenntnisse legen nahe, dass die Berücksichtigung der gemeinsamen Verteilung der Daten ein vielversprechender Weg ist, um die Grenzen zwischen überwachten und unüberwachten Lernmethoden weiter zu verwischen.

Ähnliche Artikel