« Optimisation de la politique proximale » : différence entre les versions


m (Remplacement de texte : « ↵<small> » par «  ==Sources== »)
Aucun résumé des modifications
 
(2 versions intermédiaires par le même utilisateur non affichées)
Ligne 1 : Ligne 1 :
== Définition ==
== Définition ==
L'Optimisation de la Politique Proximale (PPO) est une famille d'algorithmes d'apprentissage par renforcement sans modèle développés à OpenAI en 2017.  
L'optimisation de la politique proximale (PPO) est une famille d'algorithmes d'apprentissage par renforcement sans modèle développés par OpenAI en 2017.  


La PPO réduit la complexité de la mise en œuvre, de l'échantillonnage et du réglage des paramètres en utilisant une nouvelle [[fonction]] objective qui effectue une mise à jour de la région de confiance compatible avec la descente de [[gradient]] [[stochastique]].
La PPO réduit la complexité de la mise en œuvre, de l'échantillonnage et du réglage des paramètres en utilisant une nouvelle [[fonction]] objective qui effectue une mise à jour de la région de confiance compatible avec la descente de [[gradient]] [[stochastique]].


== Français ==
== Français ==
'''Optimisation de la Politique Proximale'''
'''Optimisation de la politique proximale'''
 
'''Optimisation de la stratégie proximale'''


'''algorithme PPO'''
'''algorithme PPO'''

Dernière version du 17 février 2026 à 15:49

Définition

L'optimisation de la politique proximale (PPO) est une famille d'algorithmes d'apprentissage par renforcement sans modèle développés par OpenAI en 2017.

La PPO réduit la complexité de la mise en œuvre, de l'échantillonnage et du réglage des paramètres en utilisant une nouvelle fonction objective qui effectue une mise à jour de la région de confiance compatible avec la descente de gradient stochastique.

Français

Optimisation de la politique proximale

Optimisation de la stratégie proximale

algorithme PPO

Anglais

Proximal Policy Optimization

PPO

Sources

Source : Wikipédia

Source : Vector Institute