De gros vecteurs impliquent de gros réseaux difficiles à entraîner. De manière générale les réseaux de neurones s'en sortent assez mal sur les données creuses, donc on essaie de compresser (forcément avec pertes), si possible en minimisant au maximum l'overlap. C'est un compromis entre le niveau de compression et les pertes engendrées.