0 votes
par dans 01 - Bases, concepts et histoire

Dans la descente de gradient , quand chaque couche est mise à jour la fonction erreur est recalculée ? ou on propage les corrections ? 

2 Réponses

0 votes
par Vétéran du GPU 🐋 (8.6k points)
sélectionné par
 
Meilleure réponse
La fonction d'erreur est calculée uniquement pendant la première phase (feed forward). La dérivé de cette fonction d'erreur par rapport aux poids du modèle est utilisée pour faire la correction des poids
0 votes
par
Lorsque l'erreur est calculée, elle est ensuite propagé dans tout le réseau de neurones grâce aux gradients
par
je ne comprends pas le sens de propager : quelle difference il y a si je le propage en avant ou en arriere si la confrontations avec les vrais resultat n'est pas faite?
...