« Chaîne de Markov » : différence entre les versions
m (Remplacement de texte — « Category:Coulombe2 » par « <!-- Coulombe2 --> ») |
m (Remplacement de texte — « Catégorie:Scotty2 » par « <!-- Scotty2 --> ») |
||
Ligne 3 : | Ligne 3 : | ||
[[Catégorie:Connaissance incertaine ou stochastique]] | [[Catégorie:Connaissance incertaine ou stochastique]] | ||
<!-- Coulombe2 --> | <!-- Coulombe2 --> | ||
<!-- Scotty2 --> | |||
[[Category:GRAND LEXIQUE FRANÇAIS]] | [[Category:GRAND LEXIQUE FRANÇAIS]] | ||
Version du 3 juillet 2019 à 12:40
Définition
Une « chaîne de Markov » est un processus de Markov à temps discret, ou à temps continu et à espace d'états discret. Un processus de Markov est un processus aléatoire possédant la propriété de Markov: toute l'information utile pour la prédiction du futur est contenue dans l'état présent du processus et n'est pas dépendante des états antérieurs (le système n'a pas de « mémoire »). Les processus de Markov portent le nom de leur inventeur, Andreï Markov (le mathématicien, pas le joueur de hockey).
Français
chaîne de Markov n.f.
Anglais
Markov chain
Contributeurs: Claude Coulombe, Jacques Barolet, wiki