+1 vote
par dans 01 - Bases, concepts et histoire
Bonjour,

 Si j'ai bien compris votre analogie à la voiture: GPT4 est un réseau de neurone et ChatGPT celui ci entrainé sur la génération de texte. Comme deepmind, le réseau, entrainé pour résoudre structure moléculaire, Alphafold2, ou la prévision météo, Graphcast. Ou es ce plus compliqué avec des modifications dans le réseau de neurones pour Alphafold2 et Graphcast ?

1 Réponse

0 votes
par
sélectionné par
 
Meilleure réponse
Bonjour,
L'analogie est là pour dire qu'un modèle fondation (le moteur) est une brique essentielle (au moins 80% de l'intelligence) mais pas suffisante pour en faire une application grand public.
Ce terme vient des modèles de langue comme chatGPT où GPT3 puis GPT4 est bien le modèle fondation et il faut ensuite un certain nombre de transformations pour obtenir un chatbot capable de discuter (plusieurs prompt/response), de ne pas répondre à coté et de ne pas dire des horreurs. Les transformations sont : le finetuning, le RLHF, le preprompting, etc.
On parle aussi de modèle fondation pour les SAM (Segment Anything Model) ou il est interessant de les interfacer ou les finetuner pour en faire une application spécifique.
Pour GraphCast et Alphafold2, je ne vois pas bien la pertinence pour cette distinction modèle fondation / modèle applicatif. Pour moi, ils sont applicatifs tel quel !!
par
Merci pour ces précisions qui me montrent que je n'avais pas saisi le concept.
...