Pour les VAE, cette total loss (divergence KL + reconstruction loss) est-elle toujours la fonction à minimiser pour obtenir le modèle le mieux entraîné possible ?
Comme la divergence KL est un compromis, celle-ci doit -elle atteindre une valeur constante, puis ensuite, au fil des epochs, le modèle s'entraîne alors en baissant la valeur de la reconstruction loss, afin d'aussi diminuer la total loss N?