Seneca beschleunigt ML-Training: Cache-Optimierung senkt Trainingszeit um 45 %
In modernen Systemen ist die Vorverarbeitung von Eingabedaten häufig der Engpass beim gleichzeitigen Training von Multimedia‑Modellen. Seneca, ein neues Daten‑Lade‑System, löst dieses Problem, indem es die Cache‑Partitionierung für drei Datenformen – kodiert, dekodiert und augmentiert – mithilfe eines Performance‑Modells optimiert.
Ein weiteres Schlüsselelement von Seneca ist die opportunistische Auslieferung von gecachten Daten während der zufälligen Batch‑Sampling‑Phase. Dadurch profitieren gleichzeitig laufende Jobs voneinander, ohne dass zusätzliche Latenz entsteht.
Die Implementierung erfolgte durch gezielte Änderungen an PyTorch. In Vergleichs‑Tests zeigte Seneca eine Reduktion des Gesamtausführungszeitraums (Makespan) um 45,23 % gegenüber dem Standard‑PyTorch‑Loader und steigerte die Datenverarbeitungs‑Durchsatzrate um bis zu 3,45‑fach im Vergleich zum nächstbesten Dataloader.