« Échantillonnage de Thompson » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 7 : Ligne 7 :


==Définition==
==Définition==
En apprentissage par renforcement l'algorithme d'échantillonnage de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard.  
En apprentissage par renforcement l'algorithme d'échantillonnage de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard. Voir '''[[Modèles de bandits]]'''.
   
   
==Français==
==Français==

Version du 11 mars 2020 à 19:38


Définition

En apprentissage par renforcement l'algorithme d'échantillonnage de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard. Voir Modèles de bandits.

Français

échantillonnage de Thompson n.m.


Anglais

Thompson sampling


Source: hal.archives-ouvertes.fr

source : Claude Coulombe