Séquence : 12
"Attention Is All You Need", quand les Transformers changent la donne !
Jeudi 13 Mars 2025, à 14h00
Live à venir, prévu le :
Jeudi 13 Mars 2025, à 14h00
Durée: 2.0h
Au sommaire :
  • Principe des neurones récurrents

  • Cellules et réseaux récurrents (LSTM, GRU)

  • Exemples : Prédiction de la trajectoire d’une coccinelle virtuelle !

  • Concept et utilisation des transformers

  • Principe du mécanisme d’attention et du multi-head attention

  • Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)

  • Pré-entraînement (BERT et GPT)

  • Fine tuning

  • Utilisation des transformers dans différents domaines

Durée: 2.0h
Chaine YouTube