« Requête par chaîne de résolution » : différence entre les versions
m (Claude COULOMBE a déplacé la page Requête en chaîne de résolution vers Requête par chaîne de résolution) |
Aucun résumé des modifications |
||
Ligne 21 : | Ligne 21 : | ||
'''requête par/en chaîne de résolution''' | '''requête par/en chaîne de résolution''' | ||
'''requête par/en chaîne de pensée''' <small>''anthropomorphisme'', calque de l'anglais</small> | '''requête par/en chaîne de pensée''' <small>''anthropomorphisme'', ''calque de l'anglais''</small> | ||
'''requête par/en chaîne de raisonnement''' | '''requête par/en chaîne de raisonnement''' | ||
Ligne 27 : | Ligne 27 : | ||
'''incitation par/en chaîne de résolution''' | '''incitation par/en chaîne de résolution''' | ||
'''incitation par/en chaîne de pensée''' <small>''anthropomorphisme'', calque de l'anglais</small> | '''incitation par/en chaîne de pensée''' <small>''anthropomorphisme'', ''calque de l'anglais''</small> | ||
== Anglais == | == Anglais == |
Version du 18 février 2025 à 16:28
Définition
Requête ayant pour but de demander à un robot conversationnel génératif de répondre en décomposant un problème sous la forme d'une chaîne de résolution.
Compléments
Nous recommandons « résolution » plutôt que « raisonnement », « pensée » ou « réflexion » pour éviter l'anthropomorphisme.
La question de savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.
On peut, par exemple, demander à un robot conversationnel génératif d'expliquer les différentes étapes de la résolution d'un problème.
Voici un exemple:
QUESTION : Linda a 5 pommes. Elle achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ? Procède étape par étape.
RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.
Il existe un équivalent en intelligence artificielle symbolique qui consiste à décomposer un problème en sous-problèmes.
Français
requête par/en chaîne de résolution
requête par/en chaîne de pensée anthropomorphisme, calque de l'anglais
requête par/en chaîne de raisonnement
incitation par/en chaîne de résolution
incitation par/en chaîne de pensée anthropomorphisme, calque de l'anglais
Anglais
chain-of-thought prompting
chain of thought prompting
CoT prompting
CoT prompt
Sources
IBM, What is chain of thoughts (CoT)?
Prompt Engineering Guide, Chain-of-Thought Prompting
Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models
Edulib, GPT101 : ChatGPT pour tous!
Discussion sur LinkedIn - Daniel Lemire professeur / chercheur à la TÉLUQ
Contributeurs: Claude Coulombe, wiki