Pour les réseaux de neurones, normaliser les valeurs d'entrée entre -1 et 1 aide à accélérer la convergence pendant l'entraînement en gardant les poids et les gradients à des échelles gérables. Cela prévient également le problème des gradients "exploding" ou "evanescent" (vanishing).