Après être repassé sur les slides, c'est effectivement un point qui n'a pas été clairement noté mais qui pour sûr a été évoqué à nombreuses reprises.
Le learning rate est juste un facteur d'échelle que l'on va appliquer à notre gradient pour faire la mise à jour des poids lors de la backpropagation (dans un contexte de DL).
C'est le 1er hyperparamètre d'un apprentissage. Son impact est très important. Comme j'ai pu le présenter durant la séquence 16, un bon choix de lr permet une meilleure convergence durant l'apprentissage (vitesse, stabilité,valeur).