Soft-Label-Training bewahrt epistemische Unsicherheit – neue Studie zeigt
Eine neue Untersuchung aus dem arXiv-Repository (ArXiv:2511.14117v1) legt nahe, dass das Training von Modellen mit Soft‑Labels – also mit den gesamten Verteilungen der annotatorischen Bewertungen – die epistemische Unsicherheit besser erhält als das herkömmliche Hard‑Label‑Training. In vielen maschinellen Lernaufgaben, etwa in der Bild- und Textklassifikation, sind die Daten von Natur aus subjektiv. Annotatoren geben häufig unterschiedliche, aber valide Beschreibungen ab, die in der Praxis oft zu einem einzigen, aggregierten Label zusammengefasst werden.