+1 vote
par dans Séquence 5

Bonjour,

Dans les précédentes séquences, on avait vu que le côté aléatoire du DeepLearning "obligeait" à faire plusieurs fois l'apprentissage+test pour obtenir une courbe de Gauss

Mais si j'ai bien compris c'était avec exactement les mêmes données entrées (sans shuffle, ni découpage variable en train/test/valid)

Ma question est donc la suivante : est-ce que les différentes méthodes (K-fold etc) nous affranchissent de cet l'aléatoire présent pour un découpage train/test/valid donné ? Ou bien est-ce qu'une itération de validation donnée doit être faite plusieurs fois ?

Merci d'avance !

1 Réponse

0 votes
par Vétéran du GPU 🐋 (20.4k points)
sélectionné par
 
Meilleure réponse
Je pense qu’il y a une incompréhension sur l’aléatoire et le fait que l’on fasse plusieurs entraînements. L’aléatoire vient principalement des valeurs d’initialisation du modèle qui est fait aléatoirement (la découpe en test/train/valid est une autre source d’aléatoire aussi). Mais comme les poids du modèle sont initialisés selon certaines méthodes, on considère que l’effet de l’aléatoire est négligeable. Si l’on entraîne plusieurs fois des modèles c’est pour trouver des bons hyperparamètres qui nous donneront le meilleur résultat.
Est-ce que cela répond à votre question ?
par
Oui ça y répond, merci !
=> On considère que notre modèle est toujours "bien" initialisé et donc qu'on peut ignorer cette source d'aléatoire
par Vétéran du GPU 🐋 (20.4k points)
Oui c'est ça (dans la majorité des cas).
...