0 votes
par dans 01 - Bases, concepts et histoire
Dans cet exemple, l'erreur d'entraînement converge mais est-ce qu'il arrive que ça ne converge pas ? Si oui, qu'est-ce qui peut empêcher la convergence ?

2 Réponses

0 votes
par (5.9k points)
 
Meilleure réponse
Oui, il arrive que l'erreur d'entraînement ne converge pas dans certains cas. Plusieurs facteurs peuvent en être la cause, tels que :
- Taux d'apprentissage trop élevé : Des pas d'apprentissage trop grands peuvent empêcher le modèle de stabiliser son erreur autour d'un minimum voir complétement diverger dès le début
- Problèmes d'architecture : Un réseau mal conçu ou inadapté au problème peut ne pas être capable de capturer les relations dans les données.
- Données de mauvaise qualité comme des données bruitées, non représentatives
- Problèmes d'optimisation : Des problèmes comme les gradients "vanishing" ou "exploding" peuvent survenir, en particulier dans les réseaux très profonds.
0 votes
par
oui, un learning rate trop élevé ou des données trop mauvaises/bruitées
...