0 votes
par dans Séquence 8
Merci pour la session.
J'ai pose à chatGPT un exo de math de M1 sur les sous-groupes continue (LoL).
Si il semble qu'il ait compris de quoi il s'agit, et il essaye de faire la démonstration demandée, il a cependant fait une grosseière erreur. En lui montrant son erreur, il essaye d'en tenir compte mais retombe sur la meme erreur... Des collegues enseignants en L3 de Physique de base, me disent "qu'il connait son cours" mais ne sait pas forcement s'en servir sans erreur.
Je me demandais si il y avait une manière de poser les questions?

2 Réponses

0 votes
par Vétéran du GPU 🐋 (68.8k points)
sélectionné par
 
Meilleure réponse
C'est une bonne remarque.

Dans le cas de chatGPT (et ses amis), il n'y a pas de réflexion et de compréhension. Les modèles actuels ne sont pas encore capable de faire ça. La qualité de leurs réponses proviennent d'un résultat statistique qui optimise la réponse qu'il fournit à ce que l'on attend de lui.

En vérité, il ne connaît même pas son cours. Ce qu'il connaît c'est comment générer une réponse d'un cours et il sait tellement bien le faire qu'il le ressort en entier.

Pour finir sur votre dernière question (qui pourrait être indépendante), oui il y a une manière de poser ses questions pour obtenir un meilleur résultat (ou qui correspond plus à nos attente). L'humain est fort pour pouvoir faire dire ce qu'il souhaite à l'IA. C'est un domaine de recherche très actuel de pouvoir contrôler le modèle à être stable suivant l'input.
par Vétéran du GPU 🐋 (68.8k points)
ps: je vous invite à rechercher "prompt engineering"
par
merci
0 votes
par Vétéran du GPU 🐋 (11.2k points)
chatGPT est meilleur que GPT3 car il est instruit par des humains pour corriger des erreurs d'éthique, de raisonnement, de sens commun.

Mais d'une façon général, ces LLM (Large language model) sont mauvais en abstraction mathématique ou en raisonement.
par
merci
...