« Chaîne de résolution » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
(10 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :


== Définition ==
== Définition ==
Requête ayant pour but de demander à un [[robot conversationnel génératif]] de répondre en décomposant la résolution d'un problème en ses différentes étapes, par exemple sous la forme d'une chaîne d'étapes.  
Processus de réalisation d'une tâche, typiquement de résolution de problèmes, qui consiste à décomposer un problème en ses différentes étapes sous la forme d'une chaîne d'étapes.  


== Compléments ==
== Compléments ==
Ligne 8 : Ligne 8 :
La question de savoir si les [[grand modèle de langues|grands modèles de langue]] raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA.
La question de savoir si les [[grand modèle de langues|grands modèles de langue]] raisonnent ''vraiment'' est une question chaudement débattue dans la communauté de l'IA.
<hr/>
<hr/>
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes d'un calcul arithmétique.  
Puisque l'on désigne le processus plutôt que le résultat, le terme « chaine de résolution » est préférable préférable à « résolution en chaîne ».
<hr/>
On peut, par exemple, demander à un [[robot conversationnel génératif]] d'expliquer les différentes étapes de la résolution d'un problème.  


Voici un exemple:
Voici un exemple:


'''QUESTION''' : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.
'''QUESTION''' : Linda a 5 pommes. Elle achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.


'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
'''RÉPONSE''' : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
Ligne 19 : Ligne 21 :


== Français ==
== Français ==
'''requête de résolution en chaîne'''
'''résolution en chaîne'''
'''requête de résolution par étapes'''
'''résolution par étapes'''
'''requête de résolution en chaîne'''
'''requête de décomposition par étapes'''
'''requête de décomposition'''


'''chaîne de résolution'''
'''chaîne de résolution'''
Ligne 39 : Ligne 27 :


'''chaîne de raisonnement'''
'''chaîne de raisonnement'''
'''résolution en chaîne'''
'''résolution par étapes'''


'''décomposition par étapes'''
'''décomposition par étapes'''


== Anglais ==
== Anglais ==
'''chain-of-thought prompting'''
'''chain-of-thought'''
 
'''chain-of-thoughts'''


'''CoT prompting '''
'''chain of thought'''


'''chain-of-thought'''
'''chain of thoughts'''


'''CoT '''
'''CoT'''


==Sources==
==Sources==


[https://www.promptingguide.ai/techniques/cot  Prompt Engineering Guide, ''Chain-of-Thought Prompting'']
[https://www.ibm.com/think/topics/chain-of-thoughts IBM, ''What is chain of thoughts (CoT)?'']
 
[https://arxiv.org/abs/2201.11903  Wei et al. 2022, ''Chain-of-Thought Prompting Elicits Reasoning in Large Language Models'']


[https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Edulib, ''GPT101 : ChatGPT pour tous!'']
[https://arxiv.org/html/2409.12183v1 arXiv - Sprague et al. 2024, ''To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning'']


[https://www.linkedin.com/posts/dlemire_lia-g%C3%A9n%C3%A9rative-devient-vraiment-bon-march%C3%A9-activity-7289356708877881344-9rZb Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ]
[https://www.linkedin.com/posts/dlemire_lia-g%C3%A9n%C3%A9rative-devient-vraiment-bon-march%C3%A9-activity-7289356708877881344-9rZb Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ]
Ligne 63 : Ligne 55 :
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:101]]
[[Catégorie:101]]
[[Catégorie:publication]]

Dernière version du 18 février 2025 à 15:42

Définition

Processus de réalisation d'une tâche, typiquement de résolution de problèmes, qui consiste à décomposer un problème en ses différentes étapes sous la forme d'une chaîne d'étapes.

Compléments

Nous recommandons « résolution » plutôt que « raisonnement », « pensée » ou « réflexion » pour éviter l'anthropomorphisme.

La question de savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.


Puisque l'on désigne le processus plutôt que le résultat, le terme « chaine de résolution » est préférable préférable à « résolution en chaîne ».


On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes de la résolution d'un problème.

Voici un exemple:

QUESTION : Linda a 5 pommes. Elle achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.

RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.


Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.

Français

chaîne de résolution

chaîne de pensée calque de l'anglais

chaîne de raisonnement

résolution en chaîne

résolution par étapes

décomposition par étapes

Anglais

chain-of-thought

chain-of-thoughts

chain of thought

chain of thoughts

CoT

Sources

IBM, What is chain of thoughts (CoT)?

arXiv - Sprague et al. 2024, To CoT or not to CoT? Chain-of-thought helps mainly on math and symbolic reasoning

Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ