0 votes
par dans 01 - Bases, concepts et histoire
Pourquoi les valeurs doivent etre comprises entre -1 et 1, je ne comprends pas toujours pas. De toute facon, à la sortie on renormalise encore.

1 Réponse

0 votes
par (5.9k points)
 
Meilleure réponse
Pour les réseaux de neurones, normaliser les valeurs d'entrée entre -1 et 1 aide à accélérer la convergence pendant l'entraînement en gardant les poids et les gradients à des échelles gérables. Cela prévient également le problème des gradients "exploding" ou "evanescent" (vanishing).
...