Pour la définition du learning rate, tout les exemples que j'ai vu semblent utiliser un learning rate constant, mais ne serait-il pas possible d'avoir un learning rate qui évolue à chaque epoch (plus élevé au début de l'apprentissage pour une convergence plus rapide lorsque les poids sont aléatoires, puis qui diminue au fur et à mesure qu'on s'approche de la convergence finale pour un apprentissage plus fin) ?