Je dirais pas que c'est lié aux poids du modèle, puisqu'il sont sensés converger aux termes de l'apprentissage (correspond à l'asymptote sur les dernières epochs qu'on voit dans les TP précédents)
Je dirais plutôt qu'un modèle instable donne des régulièrement des résultats très mauvais ? (et à l'inverse un modèle stable arrive à maintenir ses performances, mêmes quand on lui change les sous-datasets train/test utilisés)