Cette séquence, animée par Laurent Risser de l’Institut de Mathématiques de Toulouse, démystifiera les bases mathématiques des réseaux de neurones à travers des illustrations concrètes en PyTorch.
Nous découvrirons comment un réseau de neurones transforme une image pour en extraire progressivement les informations et les représentations pertinentes.
Nous prendrons aussi le temps de comprendre les principes fondamentaux de l’apprentissage, notamment la descente de gradient et la rétro-propagation.
Enfin, nous discuterons de l’importance des espaces latents, qui sont au cœur de l’utilisation des réseaux de neurones modernes.
Mathématiques pour le Deep Learning
Transformation de la représentation des données
Descente de gradient
Apprentissage des paramètres d’un réseau de neurones (rétropropagation)
Intérêt des espaces latents