Cette séquence abordera les problèmes et tout ce qui ne marche pas !
Une sorte de grand bétisier du Deep Learning ;-)
Nous nous concentrerons sur les défis rencontrés lors de l’entraînement des réseaux de neurones, en abordant les sources de ces difficultés et les méthodes et stratégies pour les surmonter.
Nous explorerons les problèmes de surapprentissage, les données insuffisantes ou mal équilibrées, ainsi que la sélection des hyperparamètres qui peuvent transformer un modèle performant en un modèle totalement inefficace.
Nous découvriront également comment les choix de l’architecture influencent la convergence (ou pas), ainsi que les obstacles liés à l’instabilité des gradients. Les pièges liés à l’overfitting et au sous-apprentissage seront expliqués, avec des solutions concrètes pour garantir la robustesse et la généralisation des modèles.
Les erreurs classiques du néophyte en Deep Learning
L’histoire des grands echecs
Les optimisations qui ne servent pas à grand chose
Les idées géniales qui ne prennent pas