Dans le cas du ASHA où on teste "un peu" plusieurs combinaisons d'hyper-paramètres
=> Est-ce que c'est pas conditionné par le fait d'avoir un optimiseur avec un assez fort learning rate ?
=> Parce que sinon on prend le risque d'éliminer des combinaisons d'hyper-param, qui auraient peut-être bien marché en testant un peu plus longtemps