Neues Verfahren: Posterior‑Sampling‑Coresets beschleunigen Deep‑Learning‑Training
Mit dem stetigen Wachstum von Deep‑Learning‑Modellen steigen die Rechenkosten rasant. Um diese Herausforderung zu meistern, setzen Forscher vermehrt auf Coreset‑Auswahl, bei der kleine, repräsentative Teilmengen der Daten das Training beschleunigen, ohne die Leistung zu beeinträchtigen. Besonders vielversprechend sind dabei gradientbasierte Ansätze, die solide theoretische Grundlagen und praktische Vorteile bieten – vor allem bei knappen Datenbudgets.