Peut-être que ça a déjà été abordé, mais est-ce pertinent de vouloir multiplier notre dataset de données séquentielles en découpant plusieurs fois pour obtenir bien plus de datasets qu'on pourrait en avoir initialement.
Par exemple, avec une séquence de 100 valeurs, on pourrait faire 20 séquences de 5 points, mais ceci est arbitraire. On peut aussi décaler le départ de notre séquence et avoir 4x 20 séquences de 5 points en partant de 0, 1, 2, et 3
Est-ce pertinent? Si oui, j'imagine qu'il y a des méthodes pour le faire automatiquement parce que ce ne serait pas pertinent de multiplier par 5 notre volume de données alors que c'est juste un décalage d'indice dans notre séquence originelle. Est-ce qu'on peut optimiser la mémoire dans ce genre de cas?