Skalierbare ROC-Optimierung: Neue SVM-Version reduziert Trainingszeit drastisch
Eine neue Variante der ROC‑optimierten Support‑Vector‑Machine (ROC‑SVM) wurde vorgestellt, die die bisherige hohe Rechenkomplexität drastisch senkt. Durch den Einsatz von unvollständigen U‑Statistiken wird die Kostenstruktur von O(n²) auf ein viel günstigeres Niveau reduziert, ohne dass die Klassifikationsleistung darunter leidet.
Die Autoren erweitern das Konzept zudem auf nichtlineare Klassifikatoren, indem sie eine Low‑Rank‑Kernel‑Approximation nutzen. Damit kann die Methode effizient in reproduzierenden Kernelshilfssräumen trainiert werden, was die Anwendbarkeit auf große Datensätze deutlich verbessert.
Eine theoretische Fehleranalyse liefert ein konkretes Bound, das die Gültigkeit der Approximation bestätigt. Praktische Tests an synthetischen und realen Datensätzen zeigen, dass die neue Methode die AUC‑Leistung der ursprünglichen ROC‑SVM nahezu identisch hält, während die Trainingszeit um ein Vielfaches verkürzt wird.