0 votes
par (150 points) dans Séquence 2
L'overfitting de CNN est-il plus risqué en augmentant le nb de kernels par couche ou en augmentant le nombre de couches?

3 Réponses

0 votes
par Vétéran du GPU 🐋 (48.7k points)
sélectionné par
 
Meilleure réponse
Je dirais que les deux paramètres contribuent à l'overfitting. Je ne sais pas si l'un a un impact plus fort que l'autre.
par
Cela signifie que même les hyperparamètres peuvent aussi contribuer à l'overfitting, en plus de trop entrainer ?
par Vétéran du GPU 🐋 (48.7k points)
L'overfitting arrive quand on entraîne trop et que le réseau est trop "intelligent" par rapport à la tâche qu'on souhaite résoudre. Les deux raisons principales de l'overfitting c'est un réseau trop gros et trop profond et un apprentissage trop long. Raccourcir l'apprentissage permet d'éviter l'overfitting même si on a un réseau un peu gros.
0 votes
par Vétéran du GPU 🐋 (20.4k points)
Les deux sont risqués, cela dépend des cas
0 votes
par Vétéran du GPU 🐋 (68.8k points)
Pour moi cela n'a pas de lien. Plus il y a de kernel et/ou de couche plus on va pouvoir overfit chaque valeur de notre dataset, néanmoins cela va surtout être provoqué par l'apprentissage en lui même.
par (150 points)
merci
...