Processus de Markov


Définition

Processus aléatoire, tel le mouvement brownien, dont la connaissance des états futurs ne dépend que de l'état présent et non pas des états antérieurs.

Français

processus de Markov

processus markovien

Anglais

Markov process

Source : ISI

Source : Wikipédia

Source : TERMIUM Plus

© Glossaire de la statistique DataFranca



Contributeurs: Claire Gorjux, wiki