0 votes
par dans Séquence 3 : TP
Bonjour,

en statistiques inférentielles, il arrive qu'on augmente un jeu de données par "boostrap", ce qui revient à ré-échantillonner les données d'entrée à la manière d'un tirage avec remise. Est-ce qu'une telle approche est envisageable pour augmenter les données lors de l'apprentissage d'un réseau au sein d'une même epoch ? C'est-à-dire utiliser des batches d'apprentissage aléatoires avec possibilité de trouver une même donnée dans plusieurs batches, et/ou plusieurs fois la même donnée dans un même batch ?

1 Réponse

0 votes
par Vétéran du GPU 🐋 (11.2k points)
sélectionné par
 
Meilleure réponse
Non car pour le deeplearning on fait un apprentissage iteratif en descente de gradient pas à pas donc on fait autant d'epoch (passage de la totatlité du dataset) autant de fois que necssaire. Il n'y a pas d'interet à "bootstraper" comme vous dite.

Faire de la data augmentation pour nous au niveau du Deep L c'est ajouter des exemples transformés et différents pas les memes.
...