Chaîne de Markov
Définition
Une « chaîne de Markov » est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus aléatoire possédant la propriété de Markov: toute l'information utile pour la prédiction du futur est contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov (le mathématicien, pas le joueur de hockey).
Français
chaîne de Markov n.f.
Anglais
Markov chain
Contributeurs: Claude Coulombe, Jacques Barolet, wiki