A ma connaissance, il n'y a pas de technique/méthode parfaite pour le découpage en fichiers compressés.
C'est une problématique que l'on rencontre uniquement sur l'utilisation d'un supercomputer avec l'usage de dataset de très grande taille.
La contrainte vient du réseau d'interconnection et du système de fichier du calculateur qui ne peut supporter une trop grande charge (surtout quand il y a d'autres utilisateurs).
Généralement, on fait des regroupement qui permettent d'avoir un ratio taille de fichier / nombre de fichier utilisable et de bonne proportion suivant la machine que l'on utilise.
Des fichiers tar trop petit ne sert à rien (toujours trop de fichier), et des fichiers trop gros sont compliqués à lire.