0 votes
par dans Séquence 2

2 Réponses

0 votes
par Vétéran du GPU 🐋 (48.7k points)
sélectionné par
 
Meilleure réponse
C'est une couche qui éteint certains neurones de manière aléatoire. ça permet de forcer le réseau à ne pas trop s'appuyer sur un seul neurone mais sur toutes les informations mises à sa disposition. Ça permet aussi de limiter le surapprentissage. C'est donc une méthode de régularisation.
par
Est-ce que ce serait une bonne stratégie d'éteindre les neurones, non pas aléatoirement, mais en priorité ceux qui participent le mieux à la classification, de façon à apprendre au réseau à "se passer des meilleurs" ?
par Vétéran du GPU 🐋 (48.7k points)
J'avoue je n'ai jamais vu ça. En fait le tirage est fait indépendamment pour chaque neurone donc l'extinction de l'un ne change rien à l'extinction de l'autre. Se passer des meilleurs semblent sous entendre une dépendance des tirages aléatoires. Une probabilité de drop qui dépend des paramètres, j'imagine qu'en théorie c'est possible mais je n'ai jamais vu ça. Je pense qu'on veut garder une bonne idée du nombre de neurones qu'on éteint (estimé par le nombre de neurone * la probabilité d'extinction)
par
Ok, merci. Par exemple je verrais l'extinction des 10 ou 20% de neurones qui donnent les valeurs les plus élevées. Ou les 5% les plus élevés dans chaque couche etc...
par Vétéran du GPU 🐋 (48.7k points)
Je n'ai jamais vu ça. Intuitivement j'ai l'impression que ça force un dropout non aléatoire qui aura tendance à toucher toujours les mêmes neurones donc il faut faire attention. Sinon il faudrait faire des recherches, ça a surement été creusé par des chercheurs j'imagine.
0 votes
par (5.6k points)
C'est une option qui désactive certaine neurones du réseau lors de l'entrainement pour éviter des phénomènes de sur-apprentissage lié au fait que certaines neurones deviennent trop importantes par rapport à d'autres.
...