+1 vote
par dans Séquence 1
recatégorisées par
Dans l'exemple utilisé cet après-midi, les couches connectées avaient 64 neurones. Y a-t-il une raison de choisir une puissance de 2 dans la taille d'une couche ?

1 Réponse

0 votes
par Vétéran du GPU 🐋 (68.8k points)
 
Meilleure réponse
Généralement, on utilise des puissances de 2 pour matcher au plus près le hardward que l'on utilise (le binaire). On en reparlera dans les prochaines séances avec notamment l'usage des accélérateurs.

Cela permet d'utiliser pleinement les blocs de calcul cpu ou gpu (tous les transistors travaillent sur un tick d'horlorge)
...