Chaîne de Markov irréductible


Définition

Chaîne de Markov dans laquelle tout état est accessible à partir de n'importe quel autre état.

Français

chaîne de Markov irréductible

chaîne irréductible

Anglais

irreducible Markov chain

irreducible chain

Source : ISI

Source : Wikipédia

GLOSSAIRE DE LA STATISTIQUE

Contributeurs: Evan Brach, wiki