Ouvrir le menu principal

En théorie des probabilités et en statistique, une variable aléatoire X a une espérance mathématique μ = E(X) et une variance σ2 = E((X − μ)2). Ce sont les deux premiers cumulants : μ = κ1 et σ2 = κ2.

Les cumulants κn sont définis par la fonction génératrice des cumulants qui est g(t) :

Elle est donc intimement liée à la fonction génératrice des moments et à la fonction caractéristique de la variable X. Les cumulants sont donnés par les dérivées en 0 de g(t) :

κ1 = μ = g' (0),
κ2 = σ2 = g''(0),
κn = g(n) (0).

Une distribution avec des cumulants κn donnés peut être approchée par un développement d'Edgeworth.

Comme indiqué plus haut, les cumulants d'une distribution sont liés aux moments de la distribution. Travailler avec la fonction génératrice des cumulants est plus pratique dans la mesure où pour des variables indépendantes X et Y,

tandis qu'avec la fonction génératrice des moments , on obtient

.

Il faut enfin remarquer que :


Certains auteurs[1],[2] préfèrent définir la fonction génératrice des cumulants directement à partir de la fonction caractéristique d'une variable aléatoire comme le logarithme népérien de cette fonction caractéristique. La fonction génératrice des cumulants prend alors parfois le nom de seconde fonction caractéristique d'une distribution.

La caractérisation des cumulants est valide même pour les distributions dont les plus hauts moments n'existent pas.

Sommaire

Cumulants de quelques distributions discrètesModifier

  • La variable aléatoire constante X = 1. La dérivée de la fonction génératrice des cumulants est  . Le premier cumulant est donc κ1 = g '(0) = 1 et tous les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
  • La variable aléatoire Y = μ se déduit de la variable aléatoire précédente. La fonction génératrice des cumulants est donc  . Bref, chaque cumulant est juste μ fois les cumulants précédents. On a donc κ1 = g '(0) = μ et les autres cumulants sont nuls, κ2 = κ3 = κ4 = ... = 0.
  • La loi de Bernoulli (nombre de succès dans une épreuve avec une probabilité de succès p). Le cas spécial p = 1 revient à la variable aléatoire X = 1. La fonction génératrice est  . Sa dérivée est g '(t) = ((p−1−1)·et + 1)−1. Finalement, les cumulants sont κ1 = g '(0) = p et κ2 = g ' '(0) = p·(1−p) . Les cumulants vérifient la formule de récurrence  
  • La loi géométrique (nombre de défaillances avant un succès, avec une probabilité de succès p à chaque expérience). La dérivée de la fonction génératrice des cumulants est g '(t) = ((1−p)−1·et−1)−1. Les premiers cumulants sont κ1 = g '(0) = p−1−1, et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ+1)−1, on obtient g '(t) = ((μ−1+1)·et−1)−1 et κ1 = μ.
  • La loi de Poisson. La dérivée de la fonction génératrice des cumulants est g '(t) = μ·et. Tous les cumulants sont égaux au paramètre: κ1 = κ2 = κ3 = ...=μ.
  • La loi binomiale (n répétitions indépendantes de l'expérience de Bernoulli décrite plus haut). Chaque cumulant est juste n fois le cumulant associé de la loi de Bernoulli. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((p−1−1)·et + 1)−1. Les premiers cumulants sont κ1 = g '(0) = n·p et κ2 = g ' '(0) = κ1·(1−p). En posant p = μ·n−1 cela donne g '(t) = ((μ−1n−1)·et+n−1)−1 et κ1 = μ. Le cas limite n−1 = 0 est une loi de Poisson.
  • La loi binomiale négative (nombre d'échecs avant n succès avec une probabilité de succès p à chaque expérience). Le cas spécial n = 1 est la loi géométrique. La dérivée de la fonction génératrice des cumulants est g '(t) = n·((1−p)−1·et−1)−1. Les premiers cumulants sont κ1 = g '(0) = n·(p−1−1) et κ2 = g ' '(0) = κ1·p−1. En posant p = (μ·n−1+1)−1, cela donne g '(t) = ((μ−1+n−1)·etn−1)−1 et κ1 = μ. Comparer ces formules à celles de la loi binomial permet de justifier le nom de 'loi binomiale négative'. Le cas limite n−1 = 0 est encore la loi Poisson.

En introduisant  , les distributions précédentes donnent une formule unifiée pour la dérivée de la fonction génératrice des cumulants :

 

La dérivée seconde est

 

confirmant que le premier cumulant est κ1 = g '(0) = μ et que le second cumulant est κ2 = g ' '(0) = μ·ε.

Les variables aléatoires constantes X = μ sont telles que є = 0. Les lois binomiales vérifient є = 1 − p si bien que 0 < є < 1.

Les lois de Poisson vérifient є = 1 tandis que les lois binomiales négatives se caractérisent par є = p−1 si bien que є > 1. Il faut noter l'analogie avec l'excentricité des coniques : cercles є = 0, ellipses 0 < є < 1, paraboles є = 1, hyperboles є > 1.

Cumulants de certaines lois continuesModifier

  • Pour la loi normale, d'espérance μ et de variance σ2, la dérivée de la fonction génératrice des cumulants est g '(t) = μ + σ2·t. Les cumulants sont donc κ1 = μ, κ2 = σ2, et κ3 = κ4 = ... = 0. Le cas spécial σ2 = 0 conduit à une variable constante: X = μ.

Quelques propriétés des cumulantsModifier

InvarianceModifier

Les cumulants vérifient pour tout variable aléatoire X et tout constante c les relations : κ1(X + c) = κ1(X) + c et κn(X + c) = κn(X) pour n ≥ 2. Pour résumer, c est ajouté au premier cumulant, et tous les cumulants d'ordre supérieur sont inchangés.

HomogénéitéModifier

Le n-ième cumulant est homogène de degré n, c'est-à-dire si c est une constante, alors :

 

AdditivitéModifier

Si X et Y sont indépendants, alors κn(X + Y) = κn(X) + κn(Y).

Un résultat en demi-teinteModifier

Sachant les résultats des cumulants de la loi normale, on pourrait espérer trouver des distributions pour lesquelles κm = κm+1 = ... = 0 pour un m>3, et où les cumulants d'ordre inférieur (ordres 3 à m -1) sont non nuls. Il n'existe pas de telles distributions[3]. Ainsi, la fonction génératrice des cumulants ne peut être un polynôme de degré fini supérieur à 2.

Cumulants et momentsModifier

La fonction génératrice des moments est :

 

si bien que la fonction génératrice des cumulants est le logarithme de la fonction génératrice des moments. Le premier cumulant est l'espérance ; les deuxième et troisième cumulants sont respectivement les deuxième et troisième moments centrés (le moment centré d'ordre 2 est la variance) ; mais les cumulants d'ordre supérieur ne sont pas égaux aux moments non centrés, pas plus qu'aux moments centrés. Ce sont plutôt des polynômes de ces moments.

Les cumulants sont liés aux moments par la formule de récurrence :

 

Le n-ème moment mn est un polynôme de degré n des n premiers cumulants :

 
 
 
 
 
 

Les coefficients sont précisément ceux qui apparaissent dans les polynômes de Bell et, par conséquent, dans la formule de Faà di Bruno.

Les moments mn ne doivent pas être confondus avec les moments centrés μn. Pour exprimer les moments centraux en fonction des cumulants, il suffit de poser κ1=0 :

 
 
 
 
 
 
 
 

Lien avec la physique statistiqueModifier

En physique statistique, un système à l'équilibre avec un bain thermique à température   peut occuper des états d'énergie  . Soit   la densité d'états d'énergie  . La fonction de partition du système est donnée par

 .

L'énergie libre du système est définie par

 .

L'énergie libre du système donne accès à l'ensemble des propriétés thermodynamiques du système comme son énergie interne, son entropie, sa chaleur spécifique

HistoireModifier

Les cumulants ont été définis en 1889 par l'astronome, mathématicien et actuaire danois Thorvald Nicolai Thiele (1838 - 1910). Thiele les appelle alors half-invariants (demi-invariants). Il faut attendre 1931 pour trouver l'appellation cumulants dans l'article « The derivation of the pattern formulae of two-way partitions from those of simpler patterns » par Ronald Aylmer Fisher et John Wishart (Proceedings of the London Mathematical Society, Series 2, v. 33, p. 195-208). L'historien Stephen Stigler reporte que le nom cumulant fut suggéré à Fisher dans une lettre de Harold Hotelling. La fonction de partition pour l'ensemble canonique en physique statistique a été définie par Josiah Willard Gibbs en 1901.

Voir aussiModifier

RéférencesModifier

  1. Kendall, M. G., Stuart, A. (1969), The Advanced Theory of Statistics, Volume 1 (3rd Edition). Griffin, London (Section 3.12).
  2. Lukacs, E. (1970), Characteristic Functions (2d Edition). Griffin, London (Page 27).
  3. Lukacs, E. (1970), Characteristic Functions (2d Edition), Griffin, London (Theorem 7.3.5).

Liens externesModifier