Bonjour,
L'analogie est là pour dire qu'un modèle fondation (le moteur) est une brique essentielle (au moins 80% de l'intelligence) mais pas suffisante pour en faire une application grand public.
Ce terme vient des modèles de langue comme chatGPT où GPT3 puis GPT4 est bien le modèle fondation et il faut ensuite un certain nombre de transformations pour obtenir un chatbot capable de discuter (plusieurs prompt/response), de ne pas répondre à coté et de ne pas dire des horreurs. Les transformations sont : le finetuning, le RLHF, le preprompting, etc.
On parle aussi de modèle fondation pour les SAM (Segment Anything Model) ou il est interessant de les interfacer ou les finetuner pour en faire une application spécifique.
Pour GraphCast et Alphafold2, je ne vois pas bien la pertinence pour cette distinction modèle fondation / modèle applicatif. Pour moi, ils sont applicatifs tel quel !!