SCPL: Training neuronaler Netze beschleunigt durch entkoppelte Verluste
Ein neues Verfahren namens Supervised Contrastive Parallel Learning (SCPL) verspricht, die Trainingsgeschwindigkeit großer neuronaler Netzwerke drastisch zu erhöhen. Durch die Entkopplung des klassischen Backpropagation…