ScaleDL: Skalierbare Laufzeitvorhersage für verteilte Deep‑Learning‑Workloads
Deep‑Neurale Netzwerke bilden die Grundlage moderner KI‑Dienste – von selbstfahrenden Autos über Chatbots bis hin zu Empfehlungssystemen. Mit zunehmender Größe und Komplexität stellen Trainings‑ und Inferenzaufgaben enorme Anforderungen an verteilte Rechenressourcen, sodass eine präzise Laufzeitvorhersage für die Optimierung von Entwicklungszyklen und Ressourcenallokation unerlässlich wird.