« Modèles de bandits » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
Ligne 1 : Ligne 1 :


[[Catégorie:Vocabulaire]]
[[Catégorie:Vocabulaire]]
Ligne 7 : Ligne 6 :
[[Catégorie:9]]
[[Catégorie:9]]


== Définition ==
==Définition==
Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.
Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.


== Français ==
==Français==
'''modèles de bandits manchot  '''  <small>loc. nom. masc</small>
 
'''modèles de bandits '''  <small>loc. nom. masc</small>
'''modèles de bandits '''  <small>loc. nom. masc</small>


'''modèles de bandits manchots  '''  <small>loc. nom. masc</small>
   
   
== Anglais ==
 
==Anglais==
'''Multi-armed bandit model'''
'''Multi-armed bandit model'''


Ligne 26 : Ligne 25 :
[https://dataanalyticspost.com/Lexique/ Source: ''Data Analytics post'']
[https://dataanalyticspost.com/Lexique/ Source: ''Data Analytics post'']


[https://en.wikipedia.org/wiki/Multi-armed_bandit Source: ''Multi-armed bandit'']
[https://en.wikipedia.org/wiki/Multi-armed_bandit Source: ''Multi-armed bandit'']

Version du 10 décembre 2019 à 15:31


Définition

Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret). Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.

Français

modèles de bandits loc. nom. masc

modèles de bandits manchots loc. nom. masc


Anglais

Multi-armed bandit model

N-armed bandit problem


Source: Data Analytics post

Source: Multi-armed bandit