« Requête de résolution par étapes » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Requête ayant pour but de demander à un [[Génération automatique de textes|générateur de texte]] basé sur un [[grand modèle de langue]] (ex.: [[ChatGPT]]) de répondre en expliquant les différentes étapes de la résolution d'un problème. | Requête ayant pour but de demander à un [[Génération automatique de textes|générateur de texte]] basé sur un [[grand modèle de langue]] (ex.: [[ChatGPT]]) de répondre en expliquant les différentes étapes de la résolution d'un problème sous forme d'une liste. | ||
== Complément == | == Complément == |
Version du 20 août 2024 à 14:00
Définition
Requête ayant pour but de demander à un générateur de texte basé sur un grand modèle de langue (ex.: ChatGPT) de répondre en expliquant les différentes étapes de la résolution d'un problème sous forme d'une liste.
Complément
On peut, par exemple, demander à un générateur de texte d'expliquer les différentes étapes d'un calcul arithmétique.
Voici un exemple:
QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ?
RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
Notez que nous hésitons à utiliser le terme raisonnement, lui préférant le terme résolution de problème. La question à savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.
Français
requête de décomposition
chaîne de pensée calque de l'anglais
chaîne de raisonnement
Anglais
chain-of-thought prompting
CoT prompting
chain-of-thought
CoT
Sources
Prompt Engineering Guide, Chain-of-Thought Prompting
Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
Contributeurs: Claude Coulombe, Marie Alfaro, Patrick Drouin, wiki