La régularisation regroupe des techniques qui permettent d'améliorer les performances (qualité des résultats du modèle).
On parle de terme de régularisation lorsqu'il s'agit d'une fonction qu'on ajoute à la fonction de perte.
Mais d'autres techniques de régularisation existe comme le dropout qui vient modifier le modèle directement pour éviter le sur-apprentissage en forçant le modèle à utiliser plus de caractéristiques/plus variées.