« Modèles de bandits » : différence entre les versions


Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Aucun résumé des modifications
 
(21 versions intermédiaires par 2 utilisateurs non affichées)
Ligne 1 : Ligne 1 :
==Définition==
Famille d’[[algorithme]]s qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.


== en construction ==
==Français==
[[Catégorie:Vocabulaire]]
'''modèles de bandits''' 
[[Catégorie:Intelligence artificielle]]
[[Catégorie:Scotty]]
[[Catégorie:dataanalyticspost]]


'''modèles de bandits manchots''' 


== Définition ==
==Anglais==
Cette famille d’algorithmes propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu des “bandits manchots”.
'''multi-armed bandit model'''


== Français ==
'''n-armed bandit problem'''
'''Modèles de « bandits manchot » '''
== Anglais ==
'''Multi-armed bandit model'''
'''N-armed bandit problem'''


==Sources==
[https://dataanalyticspost.com/Lexique/ Source : ''Data Analytics post'']


<small>
[https://en.wikipedia.org/wiki/Multi-armed_bandit Source : ''Multi-armed bandit'']


[https://dataanalyticspost.com/Lexique/ Source : Data Analytics post]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
 
[https://en.wikipedia.org/wiki/Multi-armed_bandit  Multi-armed bandit

Dernière version du 29 février 2024 à 12:48

Définition

Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret). Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.

Français

modèles de bandits

modèles de bandits manchots

Anglais

multi-armed bandit model

n-armed bandit problem

Sources

Source : Data Analytics post

Source : Multi-armed bandit