« Requête de décomposition » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
(13 versions intermédiaires par 3 utilisateurs non affichées) | |||
Ligne 1 : | Ligne 1 : | ||
== Définition == | == Définition == | ||
Requête ayant pour but de demander à un [[ | Requête ayant pour but de demander à un [[robot conversationnel génératif]] (ex.: [[ChatGPT]]) de répondre en décomposant les différentes étapes de la résolution d'un problème sous forme d'une liste. | ||
== Complément == | == Complément == | ||
On peut, par exemple, demander à un | On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique. | ||
Voici un exemple: | Voici un exemple: | ||
QUESTION : | '''QUESTION''' : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? | ||
RÉPONSE : | '''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes. | ||
<hr/> | <hr/> | ||
Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA. | Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA. | ||
<hr/> | |||
Il existe un équivalent en [[intelligence artificielle symbolique]] qui consiste à décomposer un problème en sous-problèmes. | |||
== Français == | == Français == | ||
''' requête de décomposition | ''' requête de décomposition ''' | ||
''' chaîne de pensée ''' <small>''calque de l'anglais''</small> | ''' chaîne de pensée ''' <small>''calque de l'anglais''</small> | ||
''' chaîne de raisonnement ''' | |||
== Anglais == | == Anglais == | ||
Ligne 26 : | Ligne 30 : | ||
''' CoT prompting ''' | ''' CoT prompting ''' | ||
''' chain-of-thought''' | |||
''' CoT ''' | |||
==Sources== | |||
[https://www.promptingguide.ai/techniques/cot | [https://www.promptingguide.ai/techniques/cot Prompt Engineering Guide, ''Chain-of-Thought Prompting''] | ||
[https://arxiv.org/abs/2201.11903 | [https://arxiv.org/abs/2201.11903 Wei et al. 2022, ''Chain-of-Thought Prompting Elicits Reasoning in Large Language Models''] | ||
[https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ | [https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Edulib, ''GPT101 : ChatGPT pour tous!''] | ||
[[Catégorie:GRAND LEXIQUE FRANÇAIS]] | [[Catégorie:GRAND LEXIQUE FRANÇAIS]] |
Version du 27 août 2024 à 15:42
Définition
Requête ayant pour but de demander à un robot conversationnel génératif (ex.: ChatGPT) de répondre en décomposant les différentes étapes de la résolution d'un problème sous forme d'une liste.
Complément
On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes d'un calcul arithmétique.
Voici un exemple:
QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ?
RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
Notez que nous hésitons à utiliser le terme raisonnement, lui préférant le terme résolution de problème. La question à savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.
Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.
Français
requête de décomposition
chaîne de pensée calque de l'anglais
chaîne de raisonnement
Anglais
chain-of-thought prompting
CoT prompting
chain-of-thought
CoT
Sources
Prompt Engineering Guide, Chain-of-Thought Prompting
Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
Contributeurs: Claude Coulombe, Marie Alfaro, Patrick Drouin, wiki