Aaah, au temps pour moi, j'ai confondu RELU avec la fonction marche (0 pour x<0 et 1 pour x>0). J'avais en tête le perceptron où l'on remplace, je crois dans la descente de gradient, la derivée en x>0 (qui là est bien nulle) par une fonction linéaire?