+4 votes
par dans Séquence 1
edité par
Dans le vrai monde il n'y a pas le soucis du sur-apprentissage. Pourquoi ce pb avec les générations des réseaux de neurones ?

Merci

3 Réponses

+1 vote
par Vétéran du GPU 🐋 (48.7k points)
sélectionné par
 
Meilleure réponse
Ça arrive en fait ; c'est quand on apprend par coeur sans essayer de comprendre le pattern derrière. Donc c'est possible dans la vraie vie. Si un gamin apprend par coeur les exemples, il ne saura pas répondre à un exemple qu'il n'a jamais vu. Et c'est un vrai soucis sur les approximateurs universels comme les réseaux de neurones puisqu'ils apprennent par l'exemple.
+1 vote
par Vétéran du GPU 🐋 (68.8k points)
Cela peut se produire dans le vrai monde.

Un exemple : Vous apprenez votre dictée par coeur à la place d'apprendre la grammaire/l'orthographe/etc. Dans ce cas votre performance sur cette dictée sera parfaite mais dès que l'on vous demandera de faire une dictée différente ce sera compliqué -> c'est du sur-apprentissage
0 votes
par Vétéran du GPU 🐋 (11.2k points)
edité par
Il faut penser ques les Datasets sont limités et ne possèdent pas toutes les possibilités du "vrai monde". Le sur apprentissage correspond à une focalisation trop importante sur les exemples du dataset mais qui ne représente pas le vrai monde dans sa totalité....

Un dataset idéal et universel du vrai monde permettrait d'éviter ce problème mais ça n'existe pas encore.

Et c'est un problème lié au machine learning en général et pas qu'aux réseaux de neurones en particulier.
...