« Requête de résolution en chaîne » : différence entre les versions


m (Pitpitt a déplacé la page Chain-of-Thought vers Chaîne de pensée)
Aucun résumé des modifications
 
(39 versions intermédiaires par 4 utilisateurs non affichées)
Ligne 1 : Ligne 1 :


== Définition ==
== Définition ==
L'incitation "chaîne de pensée" permet d'obtenir des capacités de raisonnement complexes grâce à des étapes de raisonnement intermédiaires. Vous pouvez l'associer à l'incitation à quelques coups pour obtenir de meilleurs résultats sur des tâches plus complexes qui nécessitent un raisonnement avant de répondre.
Requête ayant pour but de demander à un [[robot conversationnel génératif]] de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une chaîne d'étapes.
 
== Compléments ==
Nous recommandons « résolution » plutôt que « raisonnement », « pensée » ou « réflexion » pour éviter l'anthropomorphisme.
 
La question de savoir si les [[grand modèle de langues|grands modèles de langue]] raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA.
<hr/>
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique.
 
Voici un exemple:
 
'''QUESTION''' : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.
 
'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
<hr/>
Il existe un équivalent en [[intelligence artificielle symbolique]] qui consiste à décomposer un problème en sous-problèmes.  


== Français ==
== Français ==
''' Chaîne de pensée '''
 
'''requête de résolution en chaîne'''
 
'''résolution en chaîne'''
 
'''requête de résolution par étapes'''
 
'''résolution par étapes'''
 
'''requête de résolution en chaîne'''
 
'''requête de décomposition par étapes'''
 
'''requête de décomposition'''
 
'''chaîne de résolution'''
 
'''chaîne de pensée''' <small>''calque de l'anglais''</small>
 
'''chaîne de raisonnement'''
 
'''décomposition par étapes'''


== Anglais ==
== Anglais ==
''' Chain-of-Thought'''
'''chain-of-thought prompting'''
 
'''CoT prompting '''
 
'''chain-of-thought'''
 
'''CoT '''
 
==Sources==


[https://www.promptingguide.ai/techniques/cot  Prompt Engineering Guide, ''Chain-of-Thought Prompting'']


<small>
[https://arxiv.org/abs/2201.11903  Wei et al. 2022, ''Chain-of-Thought Prompting Elicits Reasoning in Large Language Models'']


[https://www.promptingguide.ai/techniques/cot  Source : promptingguide]
[https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Edulib, ''GPT101 : ChatGPT pour tous!'']


[https://arxiv.org/abs/2201.11903  Source : arxiv ]
[https://www.linkedin.com/posts/dlemire_lia-g%C3%A9n%C3%A9rative-devient-vraiment-bon-march%C3%A9-activity-7289356708877881344-9rZb Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:Publication]]
[[Catégorie:101]]

Dernière version du 3 février 2025 à 11:28

Définition

Requête ayant pour but de demander à un robot conversationnel génératif de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une chaîne d'étapes.

Compléments

Nous recommandons « résolution » plutôt que « raisonnement », « pensée » ou « réflexion » pour éviter l'anthropomorphisme.

La question de savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.


On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes d'un calcul arithmétique.

Voici un exemple:

QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.

RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.


Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.

Français

requête de résolution en chaîne

résolution en chaîne

requête de résolution par étapes

résolution par étapes

requête de résolution en chaîne

requête de décomposition par étapes

requête de décomposition

chaîne de résolution

chaîne de pensée calque de l'anglais

chaîne de raisonnement

décomposition par étapes

Anglais

chain-of-thought prompting

CoT prompting

chain-of-thought

CoT

Sources

Prompt Engineering Guide, Chain-of-Thought Prompting

Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

Edulib, GPT101 : ChatGPT pour tous!

Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ