Séquence : 9
"Attention Is All You Need", quand les Transformers changent la donne !
Vendredi 20 Décembre 2024, à 14h20
Au sommaire :
  • Concept et utilisation des transformers

  • Principe du mécanisme d’attention et du multi-head attention

  • Architectures des transformers (auto-regressive, auto-encoding et encoder decoder)

  • Pré-entraînement (BERT et GPT)

  • Fine tuning

  • Utilisation des transformers dans les autres domaines

Durée: 2.0h
Regarder sur YouTube