« Requête générative métacognitive » : différence entre les versions


Aucun résumé des modifications
 
(Une version intermédiaire par le même utilisateur non affichée)
Ligne 1 : Ligne 1 :
== en construction ==
== Définition ==
== Définition ==
L'amorçage métacognitif est une méthode ou une stratégie qui s'inspire des processus de raisonnement introspectif humain et qui formalise le processus conscient d'autoévaluation au sein des grands modèles de langues afin de leur permettre une compréhension plus approfondie.
La requête générative métacognitive, ou requête métacognitive, est une méthode ou une stratégie qui s'inspire des processus de raisonnement introspectif humain et qui formalise le processus conscient d'autoévaluation au sein des grands modèles de langues afin de leur permettre une compréhension plus approfondie.


Voir aussi '''[[grand modèle de langues]]'''
Voir aussi '''[[grand modèle de langues]]'''


== Français ==
== Français ==
''' requête générative métacognitive'''
''' requête métacognitive'''
''' amorçage métacognitif'''
''' amorçage métacognitif'''


Ligne 26 : Ligne 28 :
[https://github.com/EternityYW/Metacognitive-Prompting  Source : github]
[https://github.com/EternityYW/Metacognitive-Prompting  Source : github]


[[Catégorie:vocabulary]]
[[Catégorie:publication]]

Dernière version du 21 novembre 2024 à 11:11

Définition

La requête générative métacognitive, ou requête métacognitive, est une méthode ou une stratégie qui s'inspire des processus de raisonnement introspectif humain et qui formalise le processus conscient d'autoévaluation au sein des grands modèles de langues afin de leur permettre une compréhension plus approfondie.

Voir aussi grand modèle de langues

Français

requête générative métacognitive

requête métacognitive

amorçage métacognitif

incitation métacognitive

solliciation métacognitive

Anglais

metacognitive prompting

MP

Metacognitive prompting is a method or strategy inspired by human introspective reasoning processes that formalizes the self-aware evaluation process within large language models to ensure more profound comprehension.

Source

Source : arxiv

Source : github

Contributeurs: Arianne