« Chaîne de résolution » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 3 : | Ligne 3 : | ||
Requête ayant pour but de demander à un [[robot conversationnel génératif]] comme [[ChatGPT]] de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste. | Requête ayant pour but de demander à un [[robot conversationnel génératif]] comme [[ChatGPT]] de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste. | ||
== | == Compléments == | ||
Nous recommandons « résolution » plutôt que « raisonnement » ou « pensée » pour éviter l'anthropomorphisme. | |||
<hr/> | |||
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique. | On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique. | ||
Ligne 11 : | Ligne 14 : | ||
'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes. | '''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes. | ||
<hr/> | <hr/> | ||
Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA. | Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA. | ||
Ligne 28 : | Ligne 30 : | ||
'''requête de décomposition''' | '''requête de décomposition''' | ||
''' | '''chaîne de résolution''' | ||
'''chaîne de pensée''' <small>''calque de l'anglais''</small> | '''chaîne de pensée''' <small>''calque de l'anglais''</small> | ||
'''chaîne de | '''chaîne de raisonnement''' | ||
''' | '''décomposition par étapes''' | ||
== Anglais == | == Anglais == |
Version du 29 janvier 2025 à 04:51
Définition
Requête ayant pour but de demander à un robot conversationnel génératif comme ChatGPT de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste.
Compléments
Nous recommandons « résolution » plutôt que « raisonnement » ou « pensée » pour éviter l'anthropomorphisme.
On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes d'un calcul arithmétique.
Voici un exemple:
QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.
RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
Notez que nous hésitons à utiliser le terme raisonnement, lui préférant le terme résolution de problème. La question à savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.
Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.
Français
requête de résolution par étapes
résolution par étapes
requête de décomposition par étapes
requête de décomposition
chaîne de résolution
chaîne de pensée calque de l'anglais
chaîne de raisonnement
décomposition par étapes
Anglais
chain-of-thought prompting
CoT prompting
chain-of-thought
CoT
Sources
Prompt Engineering Guide, Chain-of-Thought Prompting
Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
Contributeurs: Arianne , Claude Coulombe, Marie Alfaro, Patrick Drouin, wiki