« Apprentissage par renforcement et rétroaction humaine » : différence entre les versions


Aucun résumé des modifications
Ligne 5 : Ligne 5 :
Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langue.
Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langue.


<!--L'apprentissage par renforcement à partir de la rétroaction humaine (ARRH) est une technique qui entraîne un modèle de récompense à partir de la rétroaction humaine et utilise ce modèle comme fonction de récompense pour optimiser la politique d'un agent à l'aide de l'apprentissage par renforcement (RL) grâce à un algorithme d'optimisation. Le modèle de récompense est formé à l'avance pour que la politique soit optimisée afin de prédire si une sortie donnée est bonne (récompense élevée) ou mauvaise (récompense faible). RLHF peut améliorer la robustesse et l'exploration des agents RL, en particulier lorsque la fonction de récompense est clairsemée ou bruyante. -->
L'apprentissage par renforcement et rétroaction humaine (ARRH) est une technique qui entraîne un modèle de récompense à partir de la rétroaction humaine et utilise ce modèle comme fonction de récompense pour optimiser la politique d'un agent. Le modèle de récompense est pré-entraîné pour que la politique soit optimisée afin de prédire si une sortie est bonne (récompense élevée) ou mauvaise (récompense faible).
 


== Français ==
== Français ==

Version du 16 juin 2023 à 12:43

Définition

En apprentissage automatique, l'apprentissage par renforcement et rétroaction humaine (ARRH) est une technique qui entraîne un modèle de récompense à partir de la rétroaction humaine et utilise le modèle comme fonction de récompense pour optimiser la politique d'un agent à l'aide de l'apprentissage par renforcement grâce à un algorithme d'optimisation.

Compléments

Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langue.

L'apprentissage par renforcement et rétroaction humaine (ARRH) est une technique qui entraîne un modèle de récompense à partir de la rétroaction humaine et utilise ce modèle comme fonction de récompense pour optimiser la politique d'un agent. Le modèle de récompense est pré-entraîné pour que la politique soit optimisée afin de prédire si une sortie est bonne (récompense élevée) ou mauvaise (récompense faible).

Français

apprentissage par renforcement et rétroaction humaine

apprentissage par renforcement avec rétroaction humaine

apprentissage par renforcement à partir de la rétroaction humaine

ARRH


Anglais

reinforcement learning from human feedback

RLHF

reinforcement learning from human preferences



Source : huyenchip

Source : stanford

Source: Wikipedia

Source : Journal du Net