Non. Certains modèles sont clairement plus propices à l'interprétabilité. Les réseaux de neurones typiquement ne le permettent pas. Ils sont connus pour être des grosses boîtes noires. Souvent, on constate qu'ils arrivent parfaitement à résoudre une tâche mais on ne sait pas comment.