Chaîne de Markov
(Redirigé depuis Markov chain)
Définition
Une « chaîne de Markov » est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus aléatoire possédant la propriété de Markov: toute l'information utile pour la prédiction du futur est contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov (le mathématicien, pas le joueur de hockey).
Français
chaîne de Markov
Anglais
Markov chain
Markov chain Monte Carlo
MCMC
Sources
Contributeurs: Claude Coulombe, Jacques Barolet, wiki