Qui ne s’est jamais demandé ce qu’il se passait à l’intérieur d’un réseau de neurones ? Le but de cette séquence, qui se veut totalement didactique et abordable, est d’apporter des réponses claires à cette question en démystifiant les bases mathématiques des réseaux de neurones :-)
Ces bases seront décrites et illustrées par de nombreux exemples en PyTorch. Nous regarderons en particulier comment un réseau de neurones peut transformer une image de manière à identifier progressivement ce qu’elle contient.
Nous décrirons ensuite comment s’effectue l’apprentissage d’un réseau de neurones en prenant le temps de comprendre comment fonctionne une descente de gradient et la rétro-propagation.
Quelques éléments seront enfin discutés pour comprendre l’intérêt des méthodes dites stochastiques pour l’apprentissage des réseaux de neurones.
Des mathématiques pour le deep learning
Transformation de la représentation des données
Descente de gradient
Apprentissage des paramètres d’un réseau de neurones (rétropropagation)