Loi de Wishart

Loi de Wishart
Paramètres Degré de liberté
paramètre d'échelle ( matrice définie positive)
Support l'ensemble des matrices définies positives
Densité de probabilité

est la fonction gamma multidimensionnelle et est la fonction trace

Espérance
Mode
Variance
Entropie voir l'article
Fonction caractéristique

En théorie des probabilités et en statistique, la loi de Wishart est la généralisation multidimensionnelle de la loi du χ², ou, dans le cas où le nombre de degré de libertés n'est pas entier, de la loi gamma. La loi est dénommée en l'honneur de John Wishart qui la formula pour la première fois en 1928[1].

C'est une famille de lois de probabilité sur les matrices définies positives, symétriques. Une variable aléatoire de loi de Wishart est donc une matrice aléatoire. Trois lois sont d'une grande importance dans l'estimation des matrices de variance-covariance.

Si une variable aléatoire X suit une loi de Wishart, on notera ou

DéfinitionModifier

Supposons que Y est une matrice n×p, les lignes sont des vecteurs aléatoires indépendants et suivent une loi normale p-dimensionnelle centrée :

 

Alors la loi de Wishart est la loi de probabilité de la matrice p×p

 

connue sous le nom matrice de dispersion. L'entier naturel n est le nombre de degrés de liberté. Pour n>p, la matrice X est inversible avec probabilité 1 si V est inversible. Si p=1 et V=1, alors la loi de Wishart est la loi du χ² à n degrés de liberté.

UtilisationModifier

La loi de Wishart apparait comme la loi d'une matrice de covariance d'un échantillon de valeurs suivant une loi normale multidimensionnelle[citation nécessaire]. Elle apparait fréquemment dans les tests de maximum de vraisemblance en analyse statistique multivariée. Elle apparait également en théorie spectrale des matrices aléatoires[citation nécessaire] et en analyse bayésienne multidimensionnelle[citation nécessaire].

Densité de probabilitéModifier

La loi de Wishart peut être caractérisée par sa densité de probabilité de la manière suivante. On fixe V une matrice p×p symétrique définie positive (paramètre d'échelle). Si np, alors la densité de probabilité de la loi de Wishart est donnée par :

 

pour toute matrice p x p X symétrique définie positive, et où Γp est la fonction gamma multidimensionnelle définie par :

 

En fait la définition précédente peut être étendue à tout réel np. Si n<p, alors la loi de Wishart n'a plus de densité, mais devient une loi singulière[2].

PropriétésModifier

GénéralitésModifier

Une matrice   aléatoire tirée selon la construction de la définition ci-dessus est toujours une matrice symétrique définie positive. Cela signifie que toutes ses valeurs propres sont strictement positives.

Log-espéranceModifier

L'espérance du logarithme est donnée par[3] :

 

ψ est la fonction digamma, c'est-à-dire la dérivée logarithmique de la fonction gamma.

Son calcul est développé ici.

EntropieModifier

L'entropie de la loi de Wishart est donnée par la formule suivante[3] :

 

  est la constante de renormalisation de la loi :

 

L'entropie peut être écrite sous la forme :

 

Fonction caractéristiqueModifier

La fonction caractéristique de la loi de Wishart est donnée par[citation nécessaire] :  

En d'autres termes,

 

Θ et I sont des matrices de même taille que V et I est la matrice unité.

ThéorèmeModifier

Si X suit la loi de Wishart à m degrés de liberté et de matrice de covariance V, et si C est une q×p-matrice de rang q, alors[citation nécessaire] :

 

Corollaire 1Modifier

Si z est un p-vecteur non nul, alors[citation nécessaire]

 

χm2 est la loi du χ² à m degrés de liberté et   est une constante positive.

Corollaire 2Modifier

Considérons le cas où   (c'est-à-dire le j-ième élément est 1 et les autres 0). Alors le corollaire 1 montre que :

 

donne la loi marginale de chacun des éléments de la diagonale de la matrice.

Il est à remarquer que la loi de Wishart n'est pas appelée loi du χ2 multidimensionnelle car les lois marginales hors diagonale ne sont pas des lois du χ2.

Décomposition de BartlettModifier

La décomposition de Bartlett d'une matrice X suivant une loi de Wishart p-dimensionnelle de matrice d'échelle V et à n degrés de liberté est la factorisation[citation nécessaire] :

 

L est la factorisation de Cholesky de V et :

 

  et   sont indépendants. Ceci donne une méthode utile pour obtenir des échantillons de valeurs de loi de Wishart[4].

Propriété de concentrationModifier

En notant   la mesure de probabilité par rapport à la matrice aléatoire   d'ordre   (cela correspond à la définition ci-dessus pour   la matrice identité d'ordre  ), ainsi qu'en notant   (resp.  ) la plus grande (resp. la plus petite) des valeurs propres d'une matrice   symétrique définie positive, alors on peut énoncer la propriété suivante : les valeurs propres de la matrice aléatoire   vérifient[5]

d'une part,  ,  ,

et d'autre part,  ,  

Ce qui signifie qu'avec une probabilité au moins égale à   les valeurs propres d'une telle matrice sont comprises entre   et  .

Relations avec d'autres loisModifier

  • La loi de Wishart est liée à la loi de Wishart inverse, notée Wp−1, comme suit : si   et si on effectue le changement de variables  , alors  . Cette relation peut-être obtenue en remarquant que la valeur absolue du jacobien de ce changement de variable est  , voir par exemple equation (15.15) dans [Dwyer][6].
  • La loi de Wishart est un cas particulier de loi gamma multidimensionnelle.

RéférencesModifier

  1. (en) J. Wishart, « The generalised product moment distribution in samples from a normal multivariate population », Biometrika, vol. 20A, nos 1-2,‎ , p. 32-52 (DOI 10.1093/biomet/20A.1-2.32, JFM 54.0565.02)
  2. “On singular Wishart and singular multivariate beta distributions” by Harald Uhlig, Annals of Statistics, 1994, 395-405 projecteuclid
  3. a et b C.M. Bishop, Pattern Recognition and Machine Learning, Springer 2006, p. 693.
  4. (en) W. B. Smith et R. R. Hocking, « Algorithm AS 53: Wishart Variate Generator », Journal of the Royal Statistical Society. Series C (Applied Statistics), vol. 21, no 3,‎ , p. 341-345 (JSTOR 2346290)
  5. (en) Verzelen et Gassiat, « Adaptative estimation of high-dimensional signal to noise ratios », arXiv,‎ , p. 41 (lire en ligne)
  6. Paul S. Dwyer, “SOME APPLICATIONS OF MATRIX DERIVATIVES IN MULTIVARIATE ANALYSIS”, JASA 1967; 62:607-625, available JSTOR.