0 votes
par dans Séquence 2
Est ce que chaque neurone doit avoir son kernel propre et sinon comment a t'on une couche de convulution différente?

1 Réponse

0 votes
par Vétéran du GPU 🐋 (48.7k points)
sélectionné par
 
Meilleure réponse
Chaque couche de convolution a ses kernels propres. Le kernel c'est l'analogue du neurone dans les réseaux qu'on a vu la semaine dernière.
par
comment sont définis les diférents kernel car nous n'indiquons que la taille?
par Vétéran du GPU 🐋 (48.7k points)
L'initialisation est un tirage aléatoire, exactement comme les couches de réseaux de neurones denses qu'on a vu la semaine dernière. On ne donne que la taille, notre framework (ici keras) fait le travail de l'initialiser aléatoirement.
...