Les modèles les plus sophistiqués exigent de longs apprentissages pour trouver un ensemble de paramètres satisfaisants relativement à la tâche que l’on souhaite accomplir.
Alors que la session 17 explorait différentes méthodes pour accélérer l’apprentissage en explorant plus rapidement le paysage de la loss et donc en réduisant le nombre d’itérations nécessaires pour obtenir un modèle entraîné, cette session se concentre majoritairement sur une utilisation plus sophistiquée du matériel disponible afin de réaliser un même nombre d’itérations en un temps plus restreint.
On pourra également utiliser des optimisations liées à la mémoire pour exploiter plus favorablement notre accélérateur ou pour faire rentrer des modèles plus volumineux en mémoire RAM.
Présentation de Jean-Zay et calcul sur GPU
Distribution du calcul - Data Parallelism - Model Parallelism
Hybrid Parallelism - Pipelines
Deepspeed - Optimisation du Data parallelism
Bonnes pratiques pour un apprentissage distribué