Ouvrir le menu principal
Ne pas confondre avec la notion de matrice aléatoire.

En mathématiques, une matrice stochastique (aussi appelée matrice de Markov) est une matrice carrée (finie ou infinie) dont chaque élément est un réel positif et dont la somme des éléments de chaque ligne vaut 1. Cela correspond, en théorie des probabilités, à la matrice de transition d'une chaîne de Markov.

DéfinitionsModifier

Si P est une matrice stochastique, on appelle vecteur stable pour P un vecteur ligne non nul h tel que hP = h, autrement dit : un vecteur propre à gauche pour la valeur propre 1 (P possède toujours au moins un vecteur stable puisque, d'après la définition, 1 est une valeur propre de P, avec comme vecteur propre à droite le vecteur colonne dont toutes les coordonnées valent 1).

Une matrice stochastique est dite régulière s'il existe un entier k > 0 tel que la matrice Pk ne contient que des réels strictement positifs.

Une matrice est dite bistochastique (ou doublement stochastique) si la somme des éléments de chaque ligne et de chaque colonne vaut 1.

PropriétésModifier

ExempleModifier

La matrice suivante est stochastique mais pas bistochastique :

 

Le vecteur   est stable pour P.

La matrice stochastique P est régulière car

 

Théorème des matrices stochastiquesModifier

Article détaillé : Théorème de Perron-Frobenius.

Le théorème des matrices stochastiques stipule que, si A est une matrice stochastique régulière, alors

De plus, si x0 est une loi initiale quelconque (i.e. est un vecteur à coordonnées positives ou nulles et de somme 1), et si xk+1 = xkA pour k = 0, 1, 2, … alors la chaîne de Markov {xk} converge vers t quand  . C’est-à-dire :