« Échantillonnage de Thompson » : différence entre les versions


Aucun résumé des modifications
Aucun résumé des modifications
 
Ligne 2 : Ligne 2 :
En apprentissage par renforcement l''''[[algorithme d'échantillonnage]]''' de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard.
En apprentissage par renforcement l''''[[algorithme d'échantillonnage]]''' de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard.


Voir '''[[Modèles de bandits]]'''.
Voir '''[[modèles de bandits]]'''.
   
   
==Français==
==Français==

Dernière version du 2 mai 2024 à 12:44

Définition

En apprentissage par renforcement l'algorithme d'échantillonnage de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard.

Voir modèles de bandits.

Français

échantillonnage de Thompson

Anglais

Thompson sampling

Sources

Source : hal.archives-ouvertes.fr

Source : Claude Coulombe