Connexion
Souvenir
Inscription
Questions
Sans réponse
Catégories
Utilisateurs
Poser une question
Fidle
Poser une question
C'est quoi le dropout() entre les couches ?
0
votes
posée
par
anonyme
24 novembre 2022
dans
Séquence 2
Votre réponse
Votre nom à afficher (en option)
Envoyez-moi un e-mail à cette adresse si ma réponse est sélectionnée ou commentée
Envoyez-moi un e-mail si ma réponse est sélectionnée ou commentée
Vie privée : votre adresse de messagerie ne sera utilisée que pour l'envoi de ces notifications .
Vérification anti-spam
Pour éviter cette vérification à l'avenir,
Connectez vous
ou
inscrivez vous
.
2
Réponses
0
votes
répondu
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
24 novembre 2022
sélectionné
par
hunoutl[IDRIS]
24 novembre 2022
Meilleure réponse
C'est une couche qui éteint certains neurones de manière aléatoire. ça permet de forcer le réseau à ne pas trop s'appuyer sur un seul neurone mais sur toutes les informations mises à sa disposition. Ça permet aussi de limiter le surapprentissage. C'est donc une méthode de régularisation.
commentée
par
Nicolas
24 novembre 2022
Est-ce que ce serait une bonne stratégie d'éteindre les neurones, non pas aléatoirement, mais en priorité ceux qui participent le mieux à la classification, de façon à apprendre au réseau à "se passer des meilleurs" ?
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
24 novembre 2022
J'avoue je n'ai jamais vu ça. En fait le tirage est fait indépendamment pour chaque neurone donc l'extinction de l'un ne change rien à l'extinction de l'autre. Se passer des meilleurs semblent sous entendre une dépendance des tirages aléatoires. Une probabilité de drop qui dépend des paramètres, j'imagine qu'en théorie c'est possible mais je n'ai jamais vu ça. Je pense qu'on veut garder une bonne idée du nombre de neurones qu'on éteint (estimé par le nombre de neurone * la probabilité d'extinction)
commentée
par
Nicolas
24 novembre 2022
Ok, merci. Par exemple je verrais l'extinction des 10 ou 20% de neurones qui donnent les valeurs les plus élevées. Ou les 5% les plus élevés dans chaque couche etc...
commentée
par
Nathan[IDRIS]
Vétéran du GPU 🐋
(
48.7k
points)
24 novembre 2022
Je n'ai jamais vu ça. Intuitivement j'ai l'impression que ça force un dropout non aléatoire qui aura tendance à toucher toujours les mêmes neurones donc il faut faire attention. Sinon il faudrait faire des recherches, ça a surement été creusé par des chercheurs j'imagine.
Votre commentaire sur cette réponse
Votre nom à afficher (en option)
Envoyez-moi un e-mail à cette adresse si un commentaire est ajouté après le mien
Envoyez-moi un e-mail si un commentaire est ajouté après le mien
Vie privée : votre adresse de messagerie ne sera utilisée que pour l'envoi de ces notifications .
Vérification anti-spam
Pour éviter cette vérification à l'avenir,
Connectez vous
ou
inscrivez vous
.
0
votes
répondu
par
Maxime[IDRIS]
(
5.6k
points)
24 novembre 2022
C'est une option qui désactive certaine neurones du réseau lors de l'entrainement pour éviter des phénomènes de sur-apprentissage lié au fait que certaines neurones deviennent trop importantes par rapport à d'autres.
Votre commentaire sur cette réponse
Votre nom à afficher (en option)
Envoyez-moi un e-mail à cette adresse si un commentaire est ajouté après le mien
Envoyez-moi un e-mail si un commentaire est ajouté après le mien
Vie privée : votre adresse de messagerie ne sera utilisée que pour l'envoi de ces notifications .
Vérification anti-spam
Pour éviter cette vérification à l'avenir,
Connectez vous
ou
inscrivez vous
.
Catégories
Toutes les catégories
Attestations
(14)
Installation FIDLE
(19)
01 - Bases, concepts et histoire
(57)
02 - L’enfer des données, des modèles et des représentations...
(21)
03 - Démo et Illustration
(8)
04 - AI, droit, société et éthique
(5)
05 - Mathématiques, gradients everywhere !!!
(6)
06 - Méthodologie des modèles/apprentissage + fine-tuning + TP
(10)
07 - Réseaux convolutifs CNN
(9)
08 - RNN et Embedding
(10)
09 - Transformers
(13)
10 - Graph Neural Network (GNN)
(10)
11 - Autoencodeur (AE)
(3)
12 - Variational Autoencoder (VAE)
(2)
13 - Generative Adversarial Networks (GAN)
(5)
14 - Diffusion Model (DM)
(3)
15 - Deep Reinforcement Learning (DRL)
(2)
16 - Physics Informed Neural Networks (PINNS)
(4)
17 - Optimisation de l'apprentissage
(2)
18 - Passer à la vitesse supérieure : l’accélération matérielle
(0)
19 - Multi-modalité
(1)
2nd JDLS
(0)
Archives 2022/2023
(77)
Installation Fidle
(61)
Attestation
(13)
Présentation de saison
(11)
Séquence 1
(29)
Séquence 2
(81)
Séquence 2 : TP
(19)
Séquence 3
(52)
Séquence 4
(27)
Séquence 5
(16)
Séquence 6
(20)
Séquence 7
(19)
Séquence 8
(35)
Séquence 9
(12)
Séquence 10
(11)
Séquence 11
(19)
Séquence 13
(9)
Séquence 14
(7)
Séquence 15
(7)
Séquence 16
(11)
Séquence 17
(5)
Séquence 18
(6)
Séquence 19
(5)
JDLS 2023
(3)
Bienvenue sur Fidle Q&A, où vous pouvez poser des questions et recevoir des réponses d'autres membres de la communauté.
...