Inégalité de Markov


Définition

En théorie des probabilités, l'inégalité de Markov donne une majoration de la probabilité qu'une variable aléatoire réelle à valeurs positives soit supérieure ou égale à une constante positive.

Français

inégalité de Markov

Anglais

Markov inequality


Sources

Source : ISI Glossaire

Source : ISI

Source : Wikipédia


GLOSSAIRE DE LA STATISTIQUE

Isi-logo-stats.jpg

Contributeurs: Claire Gorjux, wiki