Effizientes DNN-Training: Layer‑Freezing & Feature‑Map‑Caching neu gedacht
Mit dem rasanten Wachstum von neuronalen Netzwerken steigen auch die Kosten für deren Training. Eine vielversprechende Methode, die Rechenlast zu senken, ist das sogenannte Layer‑Freezing. Dabei werden bestimmte Schicht…