Processus de Markov


Définition

Processus aléatoire, tel le mouvement Brownien, dont la connaissance des états futurs ne dépend que de l'état présent et non pas des états antérieurs.

Français

processus de Markov

processus markovien

Anglais

Markov process

Sources

Source : ISI Glossaire

Source : ISI

Source : Wikipédia

Source : TERMIUM Plus


GLOSSAIRE DE LA STATISTIQUE

Isi-logo-stats.jpg

Contributeurs: Claire Gorjux, wiki