Inégalité de Markov


Définition

En théorie des probabilités, l'inégalité de Markov donne une majoration de la probabilité qu'une variable aléatoire réelle à valeurs positives soit supérieure ou égale à une constante positive.

Français

inégalité de Markov

Anglais

Markov inequality

Source : ISI

Source : Wikipédia

© Glossaire de la statistique DataFranca

Contributeurs: Claire Gorjux, wiki