0 votes
par dans 09 - Transformers
Bonjour,

Si on souhaite fine tuner un modèle comportant des transformers, est-ce que l'embedding doit être le même (ce qui serait logique) ou peut-on en utiliser un autre (plus ou moins différent) ?

Merci :)

1 Réponse

0 votes
par Vétéran du GPU 🐋 (10.9k points)
sélectionné par
 
Meilleure réponse
Vous avez le droit de tout faire. Mais en pratique on freeze l'embedding pendant le finetuning, je crois pour des raisons d'économie, je crois.

L'apport de le fine-tuner l'embedding n'apporte pas grand chose la plupart du temps!!
par
+1
Peut-être intéressant pour l'étude de l'ADN ? Le code génétique pouvant être variable d'une espèce à l'autre tout en gardant les mêmes éléments.
par Vétéran du GPU 🐋 (66.1k points)
je confirme l'intérêt économique sur performance supplémentaire faible possible
...