Dans cette séquence, après avoir vu des modèles de classification ou de régression, nous étudierons des exemples d’architectures composites pour des applications avancées et diversifiées.
Les Réseaux auto-encodeurs (AE) sont particulièrement intéressants de par leur capacité à effectuer, de manières non supervisées, des représentations compactes de données complexe.
Ils sont ainsi très utiles pour une large variété de tâches telles que la reconstruction, la détection d’anomalies, la réduction de dimensionnalité, le débruitage ou encore la génération de données.
Les Variational Autoencoder (VAE) sont une famille de modèles génératifs capable de projeter, de manière contrôlée, des données de grande dimension dans un espace latent de plus faible dimension.
Ils sont particulièrement intéressants car, contrairement aux autoencodeurs “basiques”, la projection dans l’espace latent est organisée de manière à permettre une compréhension et une utilisation de cet espace latent, telle que la génération de données, l’extraction de caractéristiques ou l’augmentation des données.
Les domaines d’applications sont potentiellement nombreux, vision par ordinateur, détection d’anomalie, reconnaissance vocale, etc.
Principes et architecture d’un autoencodeur (AE)
Espace latent, convolution classiques et transposées
Exemple proposé : Débruitage d’images fortement bruitées
Principes et architecture d’un Variational AutoEncodeur (VAE)
Projection gaussienne,
Génération de données,
Morphing dans l’espace latent
{“Exemple proposé”=>”Génération de données”}
Principes et architecture des U-net