Processus de Markov
Définition
Processus aléatoire, tel le mouvement Brownien, dont la connaissance des états futurs ne dépend que de l'état présent et non pas des états antérieurs.
Français
processus de Markov
processus markovien
Anglais
Markov process
Sources
Contributeurs: Claire Gorjux, wiki