Matrice de transition


Définition

Une matrice stochastique est une matrice carrée (finie ou infinie) dont chaque élément est un réel positif et dont la somme des éléments de chaque ligne vaut 1.

Cela correspond, en théorie des probabilités, à la matrice de transition d'une chaîne de Markov.

Français

matrice de transition

matrice stochastique

Anglais

stochastic matrix

transition matrix

stochastic transitional probability matrix

Source : ISI

Source : TERMIUM Plus

Source : Wikipédia

© Glossaire de la statistique DataFranca

Contributeurs: Claire Gorjux, wiki