0 votes
par (310 points) dans Séquence 11 : TP
Bonjour,

Juste pour être sûr d'avoir compris, ce qui fait que z_mean et z_log_var sont censés représenter à la fin de l'apprentissage la "moyenne" et la "variance", c'est bien l'utilisation de la fonction de perte de Kullback-Leibler ? Au final, on ne fait qu'entraîner deux réseaux denses spécialisé dans le calcul de cette moyenne et cette variance à partir d'une représentation dans un espace latent intermédiaire ?

1 Réponse

0 votes
par Vétéran du GPU 🐋 (48.7k points)
sélectionné par
 
Meilleure réponse
Ce qui spécialise z_mean et z_log_var dans ces rôles là, c'est le fait de les faire passer dans une couche aléatoire loi normale de moyenne z_mean et logvar z_log_var. La fonction de perte KL permet de contrôler les valeurs de z_mean et z_log_var et en remet une couche sur le fait de les spécialiser dans ces rôles là.
...