0 votes
par dans Séquence 3 : TP
si on fixe la taille du batch à la taille du dataset, on aura une seule epoch. Et si la taille du batch est  fixée un à 1, le nombre d'epoch serait la taille du datatset. c'est bien ça?

C'est pour comprendre la différence entre un batch et une epoch merci!

2 Réponses

0 votes
par Vétéran du GPU 🐋 (68.8k points)
sélectionné par
 
Meilleure réponse
Exemple :

On dispose de 64 images.

On peut donc faire un apprentissage avec un batch de 8.

On aura alors 64/8=8 update pour 1 epoch (1 epoch = notre dataset soit 64 images).

On peut faire autant d'epoch que l'on souhaite mais on va essayer d'avoir un tradeoff entre les nombres d'update du réseau et le surapprentissage que cela peut générer
par
edité
1 epoch = notre dataset soit 64 images. un apprentissage avec un batch de 8 images.
=> notre epoch est constitué de 8 batchs? Comment on peut l'update 8 fois alors que le dataset = notre epoch?
L'update d'une epoch serait il alors les même images de l'epoch précedénte mises dans un ordre différent?
Merci et désolé je suis novice
0 votes
par

1 epoch = notre dataset soit 64 images. un apprentissage avec un batch de 8 images.
=> notre epoch est constitué de 8 batchs? Comment on peut l'update 8 fois alors que le dataset = notre epoch?
L'update d'une epoch serait il alors les même images de l'epoch précedénte mises dans un ordre différent?
Merci et désolé je suis novice

...