Effizientes Lernen von Minimax‑Risk‑Klassifikatoren in großem Maßstab
In der heutigen Datenwelt, in der Klassifikationsaufgaben mit vielen Klassen und Millionen von Beispielen alltäglich sind, stellen sich Optimierungsprobleme schnell als komplex und ressourcenintensiv dar. Traditionell ermöglichen stochastische Subgradientenverfahren eine effiziente Schulung von Modellen, die den durchschnittlichen Verlust minimieren. Doch neue Ansätze wie Minimax‑Risk‑Klassifikatoren (MRCs) zielen darauf ab, den maximalen erwarteten Verlust zu reduzieren – ein Ziel, das klassische Subgradienten nicht direkt adressieren können.