Connexion
Souvenir
Inscription
Questions
Sans réponse
Catégories
Utilisateurs
Poser une question
Fidle
Poser une question
phase backward avec max pooling et dropout
0
votes
posée
par
Matthieu Perez
10 décembre 2022
dans
Séquence 4
Pour le calcul des dérivées du risque empirique, durant la phase "backward", lorsqu'il y a des étapes de max pooling et de dropout, est-ce qu'on est d'accord que c'est juste que ça met à 0 certaines des dérivées ?
Votre réponse
Votre nom à afficher (en option)
Envoyez-moi un e-mail à cette adresse si ma réponse est sélectionnée ou commentée
Envoyez-moi un e-mail si ma réponse est sélectionnée ou commentée
Vie privée : votre adresse de messagerie ne sera utilisée que pour l'envoi de ces notifications .
Vérification anti-spam
Pour éviter cette vérification à l'avenir,
Connectez vous
ou
inscrivez vous
.
1
Réponse
0
votes
répondu
par
Matthieu Perez
17 décembre 2022
sélectionné
par
hunoutl[IDRIS]
03 janvier 2023
Meilleure réponse
je viens de voir la rediffusion de la séquence 5 où l'on répond positivement à ma question pour le dropout mais pour le max pooling ce n'était pas très clair...
Je pense par exemple si on fait un max pooling sur une fenêtre 2*2 on sélectionne un et un seul pixel sur les 4 et il y a donc 3 pixels qui ne sont pas pris en compte et c'est à eux que je pense pour dire de mettre à 0 les érivées
commentée
par
Bertrand Cabot IDRIS
19 décembre 2022
+1
Oui effectivement ça revient à mettre la dérivée à 0 pour le max pooling (les points qui ne sont pas le max)
voir
https://towardsdatascience.com/forward-and-backward-propagation-of-pooling-layers-in-convolutional-neural-networks-11e36d169bec
Pour une image on a pas mal de dérivées à 0 donc mais sur un batch de plussieurs images la moyenne des gradients qui met à jour les poids couvrent une part importantes des paramètres du réseaux à chaque itérations d'apprentissage.
commentée
par
anonyme
19 décembre 2022
plus la convolution qui diffuse les dérivées non nulles sur les poids des kernels... Finalement ce qui peut parraitre comme un gruyère au début est pas mal comblé à la fin... Les gradients s'appliquent un peu partout.
Votre commentaire sur cette réponse
Votre nom à afficher (en option)
Envoyez-moi un e-mail à cette adresse si un commentaire est ajouté après le mien
Envoyez-moi un e-mail si un commentaire est ajouté après le mien
Vie privée : votre adresse de messagerie ne sera utilisée que pour l'envoi de ces notifications .
Vérification anti-spam
Pour éviter cette vérification à l'avenir,
Connectez vous
ou
inscrivez vous
.
Catégories
Toutes les catégories
Attestations
(14)
Installation FIDLE
(19)
01 - Bases, concepts et histoire
(57)
02 - L’enfer des données, des modèles et des représentations...
(21)
03 - Démo et Illustration
(8)
04 - AI, droit, société et éthique
(5)
05 - Mathématiques, gradients everywhere !!!
(6)
06 - Méthodologie des modèles/apprentissage + fine-tuning + TP
(10)
07 - Réseaux convolutifs CNN
(9)
08 - RNN et Embedding
(10)
09 - Transformers
(13)
10 - Graph Neural Network (GNN)
(10)
11 - Autoencodeur (AE)
(3)
12 - Variational Autoencoder (VAE)
(2)
13 - Generative Adversarial Networks (GAN)
(5)
14 - Diffusion Model (DM)
(3)
15 - Deep Reinforcement Learning (DRL)
(2)
16 - Physics Informed Neural Networks (PINNS)
(4)
17 - Optimisation de l'apprentissage
(2)
18 - Passer à la vitesse supérieure : l’accélération matérielle
(0)
19 - Multi-modalité
(1)
2nd JDLS
(0)
Archives 2022/2023
(77)
Installation Fidle
(61)
Attestation
(13)
Présentation de saison
(11)
Séquence 1
(29)
Séquence 2
(81)
Séquence 3
(52)
Séquence 4
(27)
Séquence 4 : TP
(3)
Séquence 5
(16)
Séquence 6
(20)
Séquence 7
(19)
Séquence 8
(35)
Séquence 9
(12)
Séquence 10
(11)
Séquence 11
(19)
Séquence 13
(9)
Séquence 14
(7)
Séquence 15
(7)
Séquence 16
(11)
Séquence 17
(5)
Séquence 18
(6)
Séquence 19
(5)
JDLS 2023
(3)
Bienvenue sur Fidle Q&A, où vous pouvez poser des questions et recevoir des réponses d'autres membres de la communauté.
...