Constante de Kemeny

En probabilités, la constante de Kemeny d'une chaîne de Markov ergodique est l'espérance du temps d'atteinte d'un état choisi aléatoirement selon la probabilité stationnaire de cette chaîne. Ce qu'il y a de remarquable à propos de cette espérance est qu'elle ne dépend pas de l'état initial de la chaîne — d'où le nom de constante de Kemeny : il s'agit d'une quantité qui ne dépend que de la chaîne étudiée.

Définition formelle modifier

La définition suivante est conforme à la formulation originelle, mais comme détaillé plus bas il est possible d'adopter une autre convention. Soit   le temps d'atteinte de l'état j, défini ici par  , où   est l'état de la chaîne au temps t. On note   l'espérance de cette variable aléatoire sachant que  , i.e. le temps moyen qu'il faut pour atteindre l'état j en partant de l'état i (qu'on prend égal au temps de retour en i lorsque i = j. La constante de Kemeny est donnée par

 ,

  est la probabilité stationnaire de la chaîne. Comme expliqué plus haut, cette quantité ne dépend pas de i.

Remarque : Il aurait également été possible d'adopter la définition suivante :

 ,

 . On a alors  . En effet, le seul terme différant dans les deux sommes précédentes est le terme pour j = i. Dans avec la première définition, ce terme est égal au produit du temps de retour à l'état i ( ) par la probabilité stationnaire de se trouver dans cet état ( ), soit 1; tandis qu'avec la deuxième il est égal à 0. La deuxième définition présente l'avantage de permettre d'exprimer la constante comme  , où  , où   est la matrice de transition et   la matrice dont les lignes sont  .[réf. nécessaire]

Anecdote historique modifier

Ce résultat est contre intuitif, si bien que lorsqu'il a été énoncé par John Kemeny en 1960, un prix a été promis à quiconque pourrait en donner une explication intuitive[1].

Références modifier

  1. (en) John Kemeny et J. Laurie Snell, Finite Markov Chains, Princeton, NJ, D. Van Nostrand, (DOI 10.1007/s10915-010-9382-1) (Corollary 4.3.6)