Non là c'est vraiment une adition simple.
Il faut voir le residual learning que l'on n'a pas abordé encore qui permet d'éviter le problème de "vanishing gradient" : en gros ca permet d'avoir des modèles profonds avec beaucoup de couches, sans cela ces modèles seraient impossibles à entrainer.