0 votes
par dans 01 - Bases, concepts et histoire
Dans le cas de la modélisation de phénomènes complexes avec une quantité très grande de dimensions, comment peut-on synthétiser ou expliquer un modèle pour qu'il ne soit pas une boîte noire inexplicable?

1 Réponse

0 votes
par Vétéran du GPU 🐋 (48.7k points)
Avec le deep learning c'est toujours très compliqué. Il y aura une session sur l'explicabilité des réseaux de neurones pour donner quelques méthodes mais ça restera toujours une boite noire le réseau de neurones malhreusemeent.
...