« Chaîne de Markov » : différence entre les versions


m (Remplacement de texte — « Category:Coulombe2 » par « <!-- Coulombe2 --> »)
m (Remplacement de texte — « Catégorie:Scotty2 » par « <!-- Scotty2 --> »)
Ligne 3 : Ligne 3 :
[[Catégorie:Connaissance incertaine ou stochastique]]
[[Catégorie:Connaissance incertaine ou stochastique]]
<!-- Coulombe2 -->
<!-- Coulombe2 -->
[[Catégorie:Scotty2]]
<!-- Scotty2 -->
[[Category:GRAND LEXIQUE FRANÇAIS]]
[[Category:GRAND LEXIQUE FRANÇAIS]]



Version du 3 juillet 2019 à 12:40


Définition

Une « chaîne de Markov » est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus aléatoire possédant la propriété de Markov: toute l'information utile pour la prédiction du futur est contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov (le mathématicien, pas le joueur de hockey).

Français

chaîne de Markov n.f.

Anglais

Markov chain



Source: wikipedia source : Claude Coulombe ( discussion)