0 votes
par dans Séquence 3
Le choix du nombre convolutions, de poolings, de taille des couches, etc, est empirique (on l'a vu à la séquence 1).

Existe-t-il un forum ou autre pour partager ce qui a été pratiqué par d'autres auparavant, en fonction du type et de la taille des données ?

Car si c'est empirique, cela implique-t-il qu'il faille "réinventer la roue" de son modèle à chaque fois ?

Vu d'ici par un débutant, le choix paraît aléatoire, voire ésotérique ;)

1 Réponse

0 votes
par Vétéran du GPU 🐋 (20.4k points)
sélectionné par
 
Meilleure réponse
Exactement ! Il ne faut pas réinventer la roue. Une simple recherche google sur les solutions de deep learning sur des tâches similaires au cas qu’on étudie est une première étape presque obligatoire lorsque l’on conçoit un modèle. Il existe des sites qui répertorie l’état de l’art sur plusieurs tâche de deep learning comme https://paperswithcode.com/
par
Merci, je comprends mieux comment ça se passe.
...