Inégalité de Markov
Définition
En théorie des probabilités, l'inégalité de Markov donne une majoration de la probabilité qu'une variable aléatoire réelle à valeurs positives soit supérieure ou égale à une constante positive.
Français
inégalité de Markov
Anglais
Markov inequality
Sources
Contributeurs: Claire Gorjux, wiki