0 votes
par dans Séquence 2
Bonjour,

Keras a-t-il des techniques pour garantir que différents kernels ne convergent pas vers les même valeurs?

1 Réponse

+1 vote
par Vétéran du GPU 🐋 (66.1k points)
sélectionné par
 
Meilleure réponse
C'est l'apprentissage qui fait ça. Si on converge vers des kernels identiques c'est que cela minimise l'erreur. On peut tout à fait envisager de mettre des solutions pour controler ce phénomène si il se produit
par
Dans le même genre de question (diapo 37/40) les trois premières couches convolutives ont des noyaux avec les mêmes hyperparamètres (3x3)
1) donc, si je comprends bien, en cas de sur apprentissage ont devrait obtenir les mêmes paramètres pour les trois kernels, y'a pas de raison que statistiquement ça donne des choses différentes ?
2) Est-ce que le fait de ne pas sur-apprendre est suffisant pour que les kernels "regardent" des choses différentes (et qu'il soit donc "suffisamment" différents) ?
Merci.
...