« Échantillonnage de Thompson » : différence entre les versions
Aucun résumé des modifications |
Aucun résumé des modifications |
||
Ligne 2 : | Ligne 2 : | ||
En apprentissage par renforcement l''''[[algorithme d'échantillonnage]]''' de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard. | En apprentissage par renforcement l''''[[algorithme d'échantillonnage]]''' de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard. | ||
Voir '''[[ | Voir '''[[modèles de bandits]]'''. | ||
==Français== | ==Français== |
Dernière version du 2 mai 2024 à 12:44
Définition
En apprentissage par renforcement l'algorithme d'échantillonnage de Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard.
Voir modèles de bandits.
Français
échantillonnage de Thompson
Anglais
Thompson sampling
Sources
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, wiki