0 votes
par dans Séquence 16
Bonjour, y a-t-il des recommandations usuelles sur la taille des datasets/nombre d'epochs/... optimaux à choisir pour implémenter des méthodes de recherche d'hyperparamètres (comme par exemple la méthode ASHA présentée) ? Jusqu'à quel point peut-on diminuer la taille des entraînements pour avoir un fine tuning fiable ?

1 Réponse

0 votes
par Vétéran du GPU 🐋 (48.7k points)
sélectionné par
 
Meilleure réponse
L'early stopping permet d'arrêter l'entraînement quand le modèle est à son max, donc c'est la meilleure méthode qu'on a pour raccourcir les entraînements.
...