« Requête de résolution par étapes » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(28 versions intermédiaires par 4 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Requête ayant pour but de demander à un [[robot conversationnel génératif]] (ex.: [[ChatGPT]]) de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste. | |||
== Complément == | |||
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique. | |||
Voici un exemple: | |||
'''QUESTION''' : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape. | |||
'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes. | |||
<hr/> | |||
Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA. | |||
<hr/> | |||
Il existe un équivalent en [[intelligence artificielle symbolique]] qui consiste à décomposer un problème en sous-problèmes. | |||
== Français == | == Français == | ||
''' | |||
'''requête de résolution par étapes''' | |||
'''résolution par étapes''' | |||
'''requête de décomposition par étapes''' | |||
'''requête de décomposition''' | |||
'''décomposition par étapes''' | |||
'''chaîne de pensée''' <small>''calque de l'anglais''</small> | |||
'''chaîne de résolution''' | |||
'''chaîne de raisonnement''' | |||
== Anglais == | == Anglais == | ||
''' | '''chain-of-thought prompting''' | ||
'''CoT prompting ''' | |||
'''chain-of-thought''' | |||
'''CoT ''' | |||
==Sources== | |||
[https://www.promptingguide.ai/techniques/cot Prompt Engineering Guide, ''Chain-of-Thought Prompting''] | |||
[https:// | [https://arxiv.org/abs/2201.11903 Wei et al. 2022, ''Chain-of-Thought Prompting Elicits Reasoning in Large Language Models''] | ||
[https:// | [https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Edulib, ''GPT101 : ChatGPT pour tous!''] | ||
[[Catégorie: | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] | ||
[[Catégorie:101]] |
Dernière version du 20 novembre 2024 à 02:51
Définition
Requête ayant pour but de demander à un robot conversationnel génératif (ex.: ChatGPT) de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste.
Complément
On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes d'un calcul arithmétique.
Voici un exemple:
QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.
RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
Notez que nous hésitons à utiliser le terme raisonnement, lui préférant le terme résolution de problème. La question à savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.
Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.
Français
requête de résolution par étapes
résolution par étapes
requête de décomposition par étapes
requête de décomposition
décomposition par étapes
chaîne de pensée calque de l'anglais
chaîne de résolution
chaîne de raisonnement
Anglais
chain-of-thought prompting
CoT prompting
chain-of-thought
CoT
Sources
Prompt Engineering Guide, Chain-of-Thought Prompting
Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
Contributeurs: Claude Coulombe, Marie Alfaro, Patrick Drouin, wiki