Fonction génératrice des moments

En théorie des probabilités et en statistique, la fonction génératrice des moments d'une variable aléatoire X est la fonction MX définie par

,

pour tout réel t tel que cette espérance existe. Cette fonction, comme son nom l'indique, est utilisée afin d'engendrer les moments associés à la distribution de probabilités de la variable aléatoire X.

Définition et calculModifier

Si à X est associée une densité de probabilité continue f, alors la fonction génératrice des moments est donnée par

 .

En introduisant dans cette équation le développement en série entière de l'exponentielle, cette expression est équivalente à :

 
 

où la dernière égalité est obtenue par le théorème de convergence dominée, et où mi est le i-ème moment de X.

Si la densité de probabilité n'est pas continue, la fonction génératrice des moments peut être obtenue par l'intégrale de Stieltjes :

 

F est la fonction de répartition de X.

Les expressions précédentes s'appliquent à des variables aléatoires. Dans le cas d'un vecteur aléatoire à composantes réelles, la fonction génératrice des moments est alors définie comme suit :

 

t est un vecteur et   est le produit scalaire.

PropriétésModifier

  •   est la transformée bilatérale de Laplace de la densité de probabilité  .
  • Si   est une suite de variables aléatoires indépendantes (mais non nécessairement identiquement distribuées) et   , alors la densité de probabilité de Sn est la convolution pondérée par les ai des densités de probabilité de chacun des Xi et la fonction de génération des moments de Sn est donnée par
     .
  • Comme son nom le suggère, la fonction génératrice des moments est liée à la série génératrice (exponentielle) des moments. Pour que ce lien ait un sens il faut bien sûr que les moments soient tous finis et que leur série associée ait un rayon de convergence non nul. Sous ces conditions la fonction génératrice des moments est développable en série entière autour de 0 et les coefficients sont reliés aux moments. Le théorème suivant précise cette discussion.

Lien entre fonction génératrice des moments et moments — Soit   une variable aléatoire réelle et   sa fonction génératrice des moments. Les deux assertions suivantes sont équivalentes :

1) Il existe   tel que   pour tout  .
2) La variable   admet des moments de tout ordre finis et la série   a un rayon de convergence non nul  .

De plus si l'une des 2 assertions ci-dessus est vérifiée alors

  • Pour tout   on a  .
  • Pour tout  ,   est   fois dérivable en 0 et  .
Si les conditions du théorème sont satisfaites, ce dernier permet de calculer très aisément l'espérance et la variance d'une variable aléatoire dont on connaît la fonction génératrice des moments.
  et
 .
Il faut faire attention car il est possible qu'une variable aléatoire admette des moments de tout ordre finis mais ait une fonction génératrice des moments infinie partout (excepté en 0). C'est le cas par exemple d'une variable aléatoire suivant une loi log-normale.

ExempleModifier

On veut calculer l'espérance de la loi exponentielle. Sa fonction génératrice des moments est donnée par :

 .

En s'appuyant sur la propriété des dérivées selon laquelle  , on obtient :

 .

En évaluant cette dérivée en t = 0, on obtient le premier moment :

 .

Relation univoque entre fonction génératrice des moments et fonction de densitéModifier

Passer de la densité à la fonction génératrice est chose aisée : il suffit d'appliquer la définition. La relation inverse semble plus ardue.

La manière la plus facile de traiter cette question est de passer par la transformation de Fourier. Il suffit pour cela de considérer la fonction des moments en t = iτ, où i est « le » nombre complexe tel que (i2=-1). On obtient ce que l'on appelle la fonction caractéristique de la variable X :

 .

En tant que transformée de Fourier, l'expression précédente peut être inversée :

 .

La fonction génératrice des moments caractérise donc parfaitement la densité.

Voir aussiModifier

Articles connexesModifier

BibliographieModifier

Sheldon Ross (trad. de l'anglais), Initiation aux probabilités [« A First Course in Probability »], Lausanne, PPUR, , 458 p. (ISBN 2-88074-327-3), p. 333-344