0 votes
par dans 02 - L’enfer des données, des modèles et des représentations...
Est-ce qu'on peut tout le temps avancer une explication sur n'importe quelle décision/prédiction individuelle dans n'importe quelle approche d'apprentissage ?

1 Réponse

0 votes
par Vétéran du GPU 🐋 (48.7k points)
sélectionné par
 
Meilleure réponse
Non. Certains modèles sont clairement plus propices à l'interprétabilité. Les réseaux de neurones typiquement ne le permettent pas. Ils sont connus pour être des grosses boîtes noires. Souvent, on constate qu'ils arrivent parfaitement à résoudre une tâche mais on ne sait pas comment.
...