La formule de la descente du gradient exige l'entrée soit normalisée, pas la sortie, car lors d'une régression la dernière fonction d'activation est linéaire (i.e. y en a pas). Donc pas de soucis lors de la rétropropagation. Si la valeur de y est trop importante, il peut arriver qu'on le fasse quand même cependant. Dans ce cas précis, les valeurs ne sont pas assez loin de 1 pour que ce soit nécessaire.