« Requête de résolution par étapes » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 16 : | Ligne 16 : | ||
<hr/> | <hr/> | ||
Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes. | Il existe un équivalent en [[intelligence artificielle symbolique]] qui consiste à décomposer un problème en sous-problèmes. | ||
== Français == | == Français == |
Version du 20 août 2024 à 14:11
Définition
Requête ayant pour but de demander à un générateur de texte basé sur un grand modèle de langue (ex.: ChatGPT) de répondre en expliquant les différentes étapes de la résolution d'un problème sous forme d'une liste.
Complément
On peut, par exemple, demander à un générateur de texte d'expliquer les différentes étapes d'un calcul arithmétique.
Voici un exemple:
QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ?
RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
Notez que nous hésitons à utiliser le terme raisonnement, lui préférant le terme résolution de problème. La question à savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.
Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.
Français
requête de décomposition
chaîne de pensée calque de l'anglais
chaîne de raisonnement
Anglais
chain-of-thought prompting
CoT prompting
chain-of-thought
CoT
Sources
Prompt Engineering Guide, Chain-of-Thought Prompting
Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
Contributeurs: Claude Coulombe, Marie Alfaro, Patrick Drouin, wiki