Soft-Label-Training bewahrt epistemische Unsicherheit – neue Studie zeigt
Eine neue Untersuchung aus dem arXiv-Repository (ArXiv:2511.14117v1) legt nahe, dass das Training von Modellen mit Soft‑Labels – also mit den gesamten Verteilungen der annotatorischen Bewertungen – die epistemische Unsicherheit besser erhält als das herkömmliche Hard‑Label‑Training. In vielen maschinellen Lernaufgaben, etwa in der Bild- und Textklassifikation, sind die Daten von Natur aus subjektiv. Annotatoren geben häufig unterschiedliche, aber valide Beschreibungen ab, die in der Praxis oft zu einem einzigen, aggregierten Label zusammengefasst werden.
Die Autoren argumentieren, dass diese Vereinfachung epistemisch problematisch ist: Die Verteilung der menschlichen Bewertungen sollte als wahre Referenz betrachtet werden, nicht als ein einzelner Punkt. Wenn Modelle auf diesen vereinfachten Labels trainiert werden, lernen sie, bei mehrdeutigen Fällen zu übermäßigem Vertrauen zu tendieren, was die Diskrepanz zwischen Modell‑Sicherheit und menschlicher Wahrnehmung verschärft.
Durch umfangreiche Experimente in Vision‑ und NLP‑Domänen konnten die Forscher zeigen, dass Soft‑Label‑Training die Kullback‑Leibler‑Divergenz um 32 % gegenüber menschlichen Annotationen reduziert und die Korrelation zwischen Modell‑ und Annotations‑Entropie um 61 % steigert – und dabei die gleiche Genauigkeit wie Hard‑Label‑Training erreicht. Damit wird die Verteilung der menschlichen Bewertungen nicht mehr als Rauschen, sondern als wertvolle Darstellung epistemischer Unsicherheit verstanden, die Modelle reproduzieren sollten.