Loi Gamma généralisée

En théorie des probabilités et en statistiques, une loi Gamma généralisée est un type de loi de probabilité de variables aléatoires réelles positives avec deux paramètres de forme (et un paramètre d'échelle), qui est une extension de la loi Gamma avec un paramètre de forme additionnel. Comme de nombreuses lois sont utilisées comme modèles paramétriques dans l'analyse de survie (telles que la loi exponentielle, la loi de Weibull et la loi Gamma) sont des cas particuliers de la loi Gamma généralisée, elle est parfois utilisée pour déterminer quel modèle paramétrique est adapté pour un jeu de données[1]. Un autre exemple est la loi demi-normale.

Loi Gamma généralisée
Paramètres (échelle), (forme)
Support
Densité de probabilité
Fonction de répartition
Espérance
Mode
Variance
Entropie

Définition modifier

La loi Gamma généralisée a deux paramètres de forme   et  , et un paramètre d'échelle  . Pour x positif, la densité de probabilité est [2]

 

avec   désignant la fonction gamma.

La fonction de répartition est :

 

  désigne la fonction gamma incomplète et   la fonction gamma incomplète régularisée.

La fonction quantile peut être définie en remarquant que    est la fonction de répartition de la loi Gamma de paramètres   et  . La fonction quantile se déduit donc par inversion de   en utilisant les diverses fonctions réciproques, soit :

 

  est la fonction quantile d'une loi gamma pour  .

Lois associées modifier

  • Si   alors la loi Gamma généralisée devient la loi de Weibull.
  • Si   alors la loi Gamma généralisée devient la loi Gamma.
  • Si   alors la loi Gamma généralisée devient la loi exponentielle.
  • Si   et   alors la loi Gamma généralisée devient la loi de Nakagami.
  • Si   et   alors la loi Gamma généralisée devient la loi demi-normale.
  • Si   et   alors la loi Gamma généralisée devient la Loi du χ à d degrés de liberté.

D'autres paramétrisations de cette loi sont parfois utilisées ; par exemple, en substituant α = d/p[3]. On peut également ajouter un paramètre de position, de sorte qu'on décale le domaine de définition de x pour le faire commencer en un point différent de 0[3]. Si on simplifie les conditions sur les signes des paramètres, en ne conservant que la positivité de α = d/p, on obtient une loi appelée distribution d'Amoroso, du nom du mathématicien et économiste italien Luigi Amoroso qui l'a décrite en 1925[4].

Moments modifier

Si X suit une loi Gamma généralisée, alors[3]

 

dont on tire l'espérance, la variance et l'asymétrie, soit respectivement[5],[6]:

 
 
 

Propriétés modifier

En notant GG(a,d,p) la loi Gamma généralisée de paramètres a, d, p, et pour deux réels positifs   et  , si  , alors   et  .

Divergence de Kullback-Leibler modifier

Si   et   sont les fonctions de densité de probabilités de deux lois Gamma généralisées, alors leur divergence de Kullback-Leibler est donnée par :

 

  désigne la fonction digamma[7].

Implémentation informatique modifier

Dans le langage de programmation R, il existe des packages incluant des fonctions pour adapter et générer des lois Gamma généralisées. Le package gamlss de R permet la génération de plusieurs familles de lois de probabilités dont la loi Gamma généralisée dans la famille GG. D'autres options de R, présentes dans le package flexsurv, incluent la fonction dgengamma, avec la paramétrisation :  ,  ,  , et dans le package ggamma avec  ,  ,  .

En Python, elle existe dans le package SciPy avec les paramètres  ,   et une échelle de 1.

Voir aussi modifier

Références modifier

  1. (en) Janet M. Box-Steffensmeier et Bradford S. Jones, Event History Modeling: A Guide for Social Scientists, Cambridge University Press, , 41-43 p. (ISBN 0-521-54673-7)
  2. (en) E.W. Stacy, « A Generalization of the Gamma Distribution », Annals of Mathematical Statistics, vol. 33, no 3,‎ , p. 1187-1192 (JSTOR 2237889)
  3. a b et c (en) N.L. Johnson, S. Kotz et N. Balakrishnan, Continuous Univariate Distributions, vol. 1, Wiley, (ISBN 0-471-58495-9), « Section 17.8.7 »
  4. (en) Gavin E. Crooks, « The Amoroso Distribution » [PDF], sur Lawrence Berkeley National Laboratory, .
  5. (en) E. W. Stacy et G. A. Mihram, « Parameter Estimation for a Generalized Gamma Distribution », Technometrics, Taylor & Francis, Ltd., vol. 7, no 3,‎ , p. 349-358
  6. (en) John Kiche, Oscar Ngesa et George O Orwa, « On Generalized Gamma Distribution and Its Application to Survival Data », International Journal of Statistics and Probability, vol. 8, no 5,‎ , p. 85 (DOI 10.5539/ijsp.v8n5p85, lire en ligne)
  7. (en) Christian Bauckhage, « Computing the Kullback-Leibler Divergence between two Generalized Gamma Distributions », .