« Chaîne de résolution » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 3 : Ligne 3 :
Requête ayant pour but de demander à un [[robot conversationnel génératif]] comme [[ChatGPT]] de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste.  
Requête ayant pour but de demander à un [[robot conversationnel génératif]] comme [[ChatGPT]] de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste.  


== Complément ==
== Compléments ==
Nous recommandons « résolution » plutôt que « raisonnement » ou « pensée » pour éviter l'anthropomorphisme.
 
<hr/>
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique.  
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique.  


Ligne 11 : Ligne 14 :


'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
<hr/>
<hr/>
Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA.
Notez que nous hésitons à utiliser le terme ''raisonnement'', lui préférant le terme ''résolution de problème''. La question à savoir si les grands modèles de langue raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA.
Ligne 28 : Ligne 30 :
'''requête de décomposition'''
'''requête de décomposition'''


'''décomposition par étapes'''
'''chaîne de résolution'''


'''chaîne de pensée''' <small>''calque de l'anglais''</small>
'''chaîne de pensée''' <small>''calque de l'anglais''</small>


'''chaîne de résolution'''
'''chaîne de raisonnement'''


'''chaîne de raisonnement'''
'''décomposition par étapes'''


== Anglais ==
== Anglais ==

Version du 29 janvier 2025 à 04:51

Définition

Requête ayant pour but de demander à un robot conversationnel génératif comme ChatGPT de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une liste.

Compléments

Nous recommandons « résolution » plutôt que « raisonnement » ou « pensée » pour éviter l'anthropomorphisme.


On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes d'un calcul arithmétique.

Voici un exemple:

QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.

RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.


Notez que nous hésitons à utiliser le terme raisonnement, lui préférant le terme résolution de problème. La question à savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.


Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.

Français

requête de résolution par étapes

résolution par étapes

requête de décomposition par étapes

requête de décomposition

chaîne de résolution

chaîne de pensée calque de l'anglais

chaîne de raisonnement

décomposition par étapes

Anglais

chain-of-thought prompting

CoT prompting

chain-of-thought

CoT

Sources

Prompt Engineering Guide, Chain-of-Thought Prompting

Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

Edulib, GPT101 : ChatGPT pour tous!