« Requête de résolution par étapes » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
Ligne 31 : Ligne 31 :
==Sources==
==Sources==


[https://www.promptingguide.ai/techniques/cot  Source : promptingguide]
[https://www.promptingguide.ai/techniques/cot  Prompt Engineering Guide, ''Chain-of-Thought Prompting'']


[https://arxiv.org/abs/2201.11903  Source : arxiv ]
[https://arxiv.org/abs/2201.11903  Wei et al. 2022, ''Chain-of-Thought Prompting Elicits Reasoning in Large Language Models'']


[https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Source : Edulib]
[https://catalogue.edulib.org/fr/cours/umontreal-gpt101/ Edulib, ''GPT101 : ChatGPT pour tous!'']


[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Version du 20 août 2024 à 13:49

Définition

Requête ayant pour but de demander à un générateur de texte basé sur un grand modèle de langue (ex.: ChatGPT) de répondre en expliquant les différentes étapes de la résolution d'un problème.

Complément

On peut, par exemple, demander à un générateur de texte d'expliquer les différentes étapes d'un calcul arithmétique.

Voici un exemple:

QUESTION : Linda a 5 pommes. Il achète deux autres sacs de pommes au marché. Chaque sac contient 3 pommes. Combien de pommes Linda a-t-elle maintenant ?

RÉPONSE : Linda avait initialement 5 pommes. Elle achète deux sacs de pommes, et chaque sac contient 3 pommes. Donc, elle a acheté 2 sacs x 3 pommes/sac = 6 pommes. En ajoutant les 6 pommes aux 5 qu'il avait déjà, Linda a maintenant 5 + 6 = 11 pommes.


Notez que nous hésitons à utiliser le terme raisonnement, lui préférant le terme résolution de problème. La question à savoir si les grands modèles de langue raisonnent vraiment est une question chaudement débattue dans la communauté de l'IA.


Français

requête de décomposition

chaîne de pensée calque de l'anglais

chaîne de raisonnement

Anglais

chain-of-thought prompting

CoT prompting


Sources

Prompt Engineering Guide, Chain-of-Thought Prompting

Wei et al. 2022, Chain-of-Thought Prompting Elicits Reasoning in Large Language Models

Edulib, GPT101 : ChatGPT pour tous!