Le choix du nombre convolutions, de poolings, de taille des couches, etc, est empirique (on l'a vu à la séquence 1).
Existe-t-il un forum ou autre pour partager ce qui a été pratiqué par d'autres auparavant, en fonction du type et de la taille des données ?
Car si c'est empirique, cela implique-t-il qu'il faille "réinventer la roue" de son modèle à chaque fois ?
Vu d'ici par un débutant, le choix paraît aléatoire, voire ésotérique ;)