« Apprentissage par renforcement et rétroaction humaine » : différence entre les versions


(Page créée avec « ==en construction== == Définition == XXXXXXXXX == Français == ''' XXXXXXXXX ''' == Anglais == ''' Reinforcement Learning from Human Feedback ''' '''RLHF''' To unde... »)
 
Aucun résumé des modifications
(17 versions intermédiaires par 3 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==en construction==
== Définition ==
En [[apprentissage automatique]], l'[[apprentissage par renforcement]] et rétroaction humaine (ARRH) est une technique d'amélioration des performances d'un agent à partir de rétroactions humaines.


== Définition ==
On commence par entraîner un [[Modèle de récompense|modèle de récompense]] sur des résultats annotés par des rétroactions humaines. Ensuite, on utilise ce modèle comme fonction de récompense pour améliorer la [[politique d'action|politique d'un agent]] à l'aide de l'[[apprentissage par renforcement]] grâce à un algorithme d'optimisation.
XXXXXXXXX
 
==Compléments==
Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les [[grand modèle de langues|grands modèles de langues]].
<hr/>
Le [[Modèle de récompense|modèle de récompense]] est pré-entraîné pour que la politique soit optimisée afin de prédire si une sortie est bonne (récompense élevée) ou mauvaise (récompense faible ou pénalité).


== Français ==
== Français ==
''' XXXXXXXXX '''
''' apprentissage par renforcement et rétroaction humaine '''
 
''' apprentissage par renforcement avec rétroaction humaine '''
 
''' apprentissage par renforcement à partir de la rétroaction humaine '''
 
'''ARRH'''


== Anglais ==
== Anglais ==
''' Reinforcement Learning from Human Feedback '''
''' reinforcement learning from human feedback '''


'''RLHF'''
'''RLHF'''


To understand RLHF, we first need to understand the process of training a model like ChatGPT and where RLHF fits in, which is the focus of the first section of this post. The following 3 sections cover the 3 phases of ChatGPT development. For each phase, I’ll discuss the goal for that phase, the intuition for why this phase is needed, and the corresponding mathematical formulation for those who want to see more technical detail.
''' reinforcement learning from human preferences '''
 
<!-- To understand RLHF, we first need to understand the process of training a model like ChatGPT and where RLHF fits in, which is the focus of the first section of this post. The following 3 sections cover the 3 phases of ChatGPT development. For each phase, I’ll discuss the goal for that phase, the intuition for why this phase is needed, and the corresponding mathematical formulation for those who want to see more technical detail.
   
   
  Currently, RLHF is not yet widely used in the industry except for a few big key players – OpenAI, DeepMind, and Anthropic. However, I’ve seen many work-in-progress efforts using RLHF, so I wouldn’t be surprised to see RLHF used more in the future.
  Currently, RLHF is not yet widely used in the industry except for a few big key players – OpenAI, DeepMind, and Anthropic. However, I’ve seen many work-in-progress efforts using RLHF, so I wouldn’t be surprised to see RLHF used more in the future.
   ---
   ---
  Learning from instructions and human feedback are thought to be at the core of recent advances in instruction following large language models (LLMs). While recent efforts such as Open Assistant, Vicuna, and Alpaca have advanced our understanding of instruction fine-tuning, the same cannot be said for RLHF-style algorithms that learn directly from human feedback. AlpacaFarm aims to address this gap by enabling fast, low-cost research and development on methods that learn from human feedback. We identify three main difficulties with studying RLHF-style algorithms: the high cost of human preference data, the lack of trustworthy evaluation, and the absence of reference implementations.
  Learning from instructions and human feedback are thought to be at the core of recent advances in instruction following large language models (LLMs). While recent efforts such as Open Assistant, Vicuna, and Alpaca have advanced our understanding of instruction fine-tuning, the same cannot be said for RLHF-style algorithms that learn directly from human feedback. AlpacaFarm aims to address this gap by enabling fast, low-cost research and development on methods that learn from human feedback. We identify three main difficulties with studying RLHF-style algorithms: the high cost of human preference data, the lack of trustworthy evaluation, and the absence of reference implementations. -->


<small>
==Sources==


[https://huyenchip.com/2023/05/02/rlhf.html  Source : huyenchip]
[https://huyenchip.com/2023/05/02/rlhf.html  Source : huyenchip]
Ligne 25 : Ligne 37 :
[https://crfm.stanford.edu/2023/05/22/alpaca-farm.html  Source : stanford]
[https://crfm.stanford.edu/2023/05/22/alpaca-farm.html  Source : stanford]


[https://en.wikipedia.org/wiki/Reinforcement_learning_from_human_feedback  Source: Wikipedia]
[https://www.journaldunet.com/solutions/dsi/1518637-chatgpt-l-intelligence-artificielle-peut-elle-tenir-ses-promesses/  Source : Journal du Net]


[[Catégorie:vocabulary]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Version du 11 mars 2024 à 21:10

Définition

En apprentissage automatique, l'apprentissage par renforcement et rétroaction humaine (ARRH) est une technique d'amélioration des performances d'un agent à partir de rétroactions humaines.

On commence par entraîner un modèle de récompense sur des résultats annotés par des rétroactions humaines. Ensuite, on utilise ce modèle comme fonction de récompense pour améliorer la politique d'un agent à l'aide de l'apprentissage par renforcement grâce à un algorithme d'optimisation.

Compléments

Ce type d'apprentissage est utilisé dans les générateurs de texte fondés sur les grands modèles de langues.


Le modèle de récompense est pré-entraîné pour que la politique soit optimisée afin de prédire si une sortie est bonne (récompense élevée) ou mauvaise (récompense faible ou pénalité).

Français

apprentissage par renforcement et rétroaction humaine

apprentissage par renforcement avec rétroaction humaine

apprentissage par renforcement à partir de la rétroaction humaine

ARRH

Anglais

reinforcement learning from human feedback

RLHF

reinforcement learning from human preferences


Sources

Source : huyenchip

Source : stanford

Source: Wikipedia

Source : Journal du Net