« Apprentissage par renforcement et rétroaction humaine » : différence entre les versions
m (Patrickdrouin a déplacé la page Reinforcement Learning from Human Feedback vers Apprentissage par renforcement et rétroaction humaine) |
Aucun résumé des modifications |
||
Ligne 5 : | Ligne 5 : | ||
Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langue. | Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langue. | ||
L'apprentissage par renforcement et rétroaction humaine (ARRH) est une technique qui entraîne un modèle de récompense à partir de la rétroaction humaine et utilise ce modèle comme fonction de récompense pour optimiser la politique d'un agent. Le modèle de récompense est pré-entraîné pour que la politique soit optimisée afin de prédire si une sortie est bonne (récompense élevée) ou mauvaise (récompense faible). | |||
== Français == | == Français == |
Version du 16 juin 2023 à 12:43
Définition
En apprentissage automatique, l'apprentissage par renforcement et rétroaction humaine (ARRH) est une technique qui entraîne un modèle de récompense à partir de la rétroaction humaine et utilise le modèle comme fonction de récompense pour optimiser la politique d'un agent à l'aide de l'apprentissage par renforcement grâce à un algorithme d'optimisation.
Compléments
Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langue.
L'apprentissage par renforcement et rétroaction humaine (ARRH) est une technique qui entraîne un modèle de récompense à partir de la rétroaction humaine et utilise ce modèle comme fonction de récompense pour optimiser la politique d'un agent. Le modèle de récompense est pré-entraîné pour que la politique soit optimisée afin de prédire si une sortie est bonne (récompense élevée) ou mauvaise (récompense faible).
Français
apprentissage par renforcement et rétroaction humaine
apprentissage par renforcement avec rétroaction humaine
apprentissage par renforcement à partir de la rétroaction humaine
ARRH
Anglais
reinforcement learning from human feedback
RLHF
reinforcement learning from human preferences
Contributeurs: Arianne , Claude Coulombe, Patrick Drouin, wiki