« Modèles de bandits » : différence entre les versions


m (Remplacement de texte — « Catégorie:100 » par «  »)
Aucun résumé des modifications
Balise : Éditeur de wikicode 2017
Ligne 1 : Ligne 1 :
[[Catégorie:Intelligence artificielle]]
[[Catégorie:dataanalyticspost]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]
==Définition==
==Définition==
Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.
Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret).  Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.
Ligne 23 : Ligne 18 :


[https://en.wikipedia.org/wiki/Multi-armed_bandit Source: ''Multi-armed bandit'']
[https://en.wikipedia.org/wiki/Multi-armed_bandit Source: ''Multi-armed bandit'']
[[Catégorie:Intelligence artificielle]]
[[Catégorie:dataanalyticspost]]
[[Catégorie:GRAND LEXIQUE FRANÇAIS]]

Version du 7 mai 2020 à 13:52

Définition

Famille d’algorithmes qui propose des stratégies optimales pour maximiser l’espérance d’un gain lors d’une succession de choix entre plusieurs actions aux récompenses inconnues (on parle aussi de maximiser le rendement et de minimiser le regret). Les modèles de bandits sont inspirés du problème de l’optimisation des gains du jeu de hasard que l’on trouve dans les casinos où l’on tire sur le manche d'une machine à sou.

Français

modèles de bandits loc. nom. masc

modèles de bandits manchots loc. nom. masc

Anglais

Multi-armed bandit model

N-armed bandit problem


Source: Data Analytics post

Source: Multi-armed bandit