« Requête de résolution en chaîne » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(37 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :


== Définition ==
== Définition ==
Requête ayant pour but de demander à un [[https://datafranca.org/wiki/G%C3%A9n%C3%A9ration_automatique_de_textes|générateur de texte]] de type ChatGPT d'expliquer les étapes du ''raisonnement'' ayant conduit à la réponse obtenue à une étape précédente.  
Requête ayant pour but de demander à un [[robot conversationnel génératif]] de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une chaîne d'étapes.  


== Complément ==
== Compléments ==
Nous recommandons « résolution » plutôt que « raisonnement », « pensée » ou « réflexion » pour éviter l'anthropomorphisme.


La question de savoir si les [[grand modèle de langues|grands modèles de langue]] raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA.
<hr/>
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique.
Voici un exemple:
'''QUESTION''' : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.
'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
<hr/>
Il existe un équivalent en [[intelligence artificielle symbolique]] qui consiste à décomposer un problème en sous-problèmes.


== Français ==
== Français ==
''' requête de décomposition en étapes '''
 
''' chaîne de pensée ''' <small>''calque de l'anglais''
'''requête de résolution en chaîne'''
 
'''résolution en chaîne'''
 
'''requête de résolution par étapes'''
 
'''résolution par étapes'''
 
'''requête de résolution en chaîne'''
 
'''requête de décomposition par étapes'''
 
'''requête de décomposition'''
 
'''chaîne de résolution'''
 
'''chaîne de pensée''' <small>''calque de l'anglais''</small>
 
'''chaîne de raisonnement'''
 
'''décomposition par étapes'''


== Anglais ==
== Anglais ==
''' chain-of-thought prompting'''
'''chain-of-thought prompting'''
''' CoT prompting '''
 
'''CoT prompting '''
 
'''chain-of-thought'''
 
'''CoT '''


==Sources==


<small>
[https://www.promptingguide.ai/techniques/cot  Prompt Engineering Guide, ''Chain-of-Thought Prompting'']


[https://www.promptingguide.ai/techniques/cot  Source : promptingguide]
[https://arxiv.org/abs/2201.11903  Wei et al. 2022, ''Chain-of-Thought Prompting Elicits Reasoning in Large Language Models'']


[https://arxiv.org/abs/2201.11903  Source : arxiv ]
[https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Edulib, ''GPT101 : ChatGPT pour tous!'']


[https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Source : Edulibre]
[https://www.linkedin.com/posts/dlemire_lia-g%C3%A9n%C3%A9rative-devient-vraiment-bon-march%C3%A9-activity-7289356708877881344-9rZb Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ]


[[Catégorie:Publication]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]

Dernière version du 3 février 2025 à 11:28

Définition

Requête ayant pour but de demander à un robot conversationnel génératif de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une chaîne d'étapes.

Compléments

Nous recommandons « résolution » plutôt que « raisonnement », « pensée » ou « réflexion » pour éviter l'anthropomorphisme.

La question de savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.


On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes d'un calcul arithmétique.

Voici un exemple:

QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.

RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.


Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.

Français

requête de résolution en chaîne

résolution en chaîne

requête de résolution par étapes

résolution par étapes

requête de résolution en chaîne

requête de décomposition par étapes

requête de décomposition

chaîne de résolution

chaîne de pensée calque de l'anglais

chaîne de raisonnement

décomposition par étapes

Anglais

chain-of-thought prompting

CoT prompting

chain-of-thought

CoT

Sources

Prompt Engineering Guide, Chain-of-Thought Prompting

Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

Edulib, GPT101 : ChatGPT pour tous!

Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ