Séquence : 12
"Attention Is All You Need", quand les Transformers changent la donne !
Jeudi 13 Mars 2025, à 14h00
Live à venir, prévu le :
Jeudi 13 Mars 2025, à 14h00
Durée: 2.0h
Au sommaire :
  • Principe des neurones récurrents

  • Cellules et réseaux récurrents (RNN, LSTM, GRU)

  • Une plongée dans l’architecture des transformers. De l’encodage au décodage… une question d’attention

  • Trois grands types de transformers : encoder-only, decoder-only, encoder-decoder

  • Le modèle BERT : entraînement et finetuning

  • Utilisation des transformers dans différents domaines

  • Nouveaux modèles émergents

Durée: 2.0h
Chaine YouTube