« Modèles de bandits » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(14 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
Famille d’[[algorithme]]s qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.


==Français==
'''modèles de bandits''' 


[[Catégorie:Vocabulaire]]
'''modèles de bandits manchots''' 
[[Catégorie:Intelligence artificielle]]
[[Catégorie:Scotty]]
[[Catégorie:dataanalyticspost]]
[[Catégorie:9]]


== Définition ==
==Anglais==
Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandit sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.
'''multi-armed bandit model'''


== Français ==
'''n-armed bandit problem'''
'''modèles du bandit manchot  '''


'''modèles du bandit '''
==Sources==
[https://dataanalyticspost.com/Lexique/ Source : ''Data Analytics post'']


[https://en.wikipedia.org/wiki/Multi-armed_bandit Source : ''Multi-armed bandit'']
== Anglais ==
'''Multi-armed bandit model'''


'''N-armed bandit problem'''
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
 
<small>
 
[https://dataanalyticspost.com/Lexique/ Source: ''Data Analytics post'']
 
[https://en.wikipedia.org/wiki/Multi-armed_bandit  Source: ''Multi-armed bandit''

Dernière version du 29 février 2024 à 12:48

Définition

Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret). Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.

Français

modèles de bandits

modèles de bandits manchots

Anglais

multi-armed bandit model

n-armed bandit problem

Sources

Source : Data Analytics post

Source : Multi-armed bandit