« Échantillonnage de Thompson » : différence entre les versions
Ligne 1 : | Ligne 1 : | ||
== Domaine == | == Domaine == | ||
[[Category:Vocabulary]] | [[Category:Vocabulary]]<br/> | ||
[[Category:Intelligence artificielle]]Intelligence artificielle<br/> | |||
[[Category:Apprentissage par renforcement]]Apprentissage par renforcement<br/> | |||
[[Category:Coulombe]]Coulombe<br/> | |||
== Définition == | == Définition == | ||
Version du 6 février 2019 à 21:17
Domaine
Intelligence artificielle
Apprentissage par renforcement
Coulombe
Définition
Français
<poll> Choisissez parmi ces termes proposés : échantillonnage Thompson échantillonnage de Thompson échantillonnage à la Thompson </poll>
Discussion:
Pour le moment, le terme privilégié est «échantillonnage Thompson».
En apprentissage par renforcement et en intelligence artificielle, l'échantillonnage Thompson, du nom de William R. Thompson son inventeur, est une heuristique (ou politique) de choix d'actions qui aborde le dilemme de l'exploration-exploitation dans le problème de choix parmi plusieurs machines à sous (problème de bandits). Elle consiste à choisir l'action qui maximise la récompense attendue par rapport à un choix fait au hasard.
Source: https://hal.archives-ouvertes.fr/hal-01671320/document
Anglais
Thompson sampling
In artificial intelligence, Thompson sampling,[1] named after William R. Thompson, is a heuristic for choosing actions that addresses the exploration-exploitation dilemma in the multi-armed bandit problem. It consists in choosing the action that maximizes the expected reward with respect to a randomly drawn belief.
Contributeurs: Claire Gorjux, Claude Coulombe, Jacques Barolet, wiki