Développement de Von Mises

En statistiques, le développement de Von Mises d'une statistique , est un analogue du développement de Taylor de cette statistique vue comme une fonctionnelle, c'est-à-dire comme une fonction d'une distribution. Le développement de au voisinage de la distribution (par exemple la distribution de ) s'écrit donc comme une somme de terme de degrés croissants en , où désigne la distribution empirique de ces données. Le développement de Von Mises d'une statistique permet une meilleure compréhension de sa distribution asymptotique.

Le développement de Von Mises a été introduit pour la première fois par Richard Von Mises en 1947[1].

Statistique fonctionnelle

modifier

La plupart des statistiques (estimateurs, statistiques de tests, etc.) peuvent être définies en tant que fonctionnelles, c'est ce qu'on appelle des statistiques fonctionnelles.

Une statistique   est généralement vue comme une fonction prenant en entrée un jeu de données   et retournant une valeur ou un vecteur de valeurs  . On peut l'écrire  .

Mais il est aussi possible de décrire cette statistique comme une fonction prenant en entrée une distribution de probabilité   et retournant une valeur ou un vecteur de valeurs  , il s'agit alors d'une statistique fonctionnelle  . Cette fonctionnelle est définie de sorte que pour tout jeu de données  , si nous appelons   la distribution empirique de  , alors  . Le terme de droite de cette égalité considère   comme une fonctionnelle alors que le terme de gauche comme une statistique classique.

Exemples

modifier

Pour un jeu de données   comprenant   observations :

  • la moyenne s'écrit classiquement comme  . La fonctionnelle associée s'écrit :    est la densité de probabilité associée à  .
  • la variance s'écrit classiquement comme  , la fonctionnelle associée s'écrit :  .
  • le  -quantile de   s'écrit comme   (plus petite valeur   telle qu'une proportion d'au moins   des données lui soit supérieure). La fonctionnelle associée s'écrit    est identifiée à sa fonction de répartition (au cas, où   n'est pas unique, on peut prendre  , le plus petit antécédent de   par  ).

Dérivabilité d'une fonctionnelle

modifier

Comme pour des fonctions classiques, il est possible de parler de continuité et de dérivabilité d'une statistique fonctionnelle. On peut définir la dérivée de   en   dans la direction de   comme

 .

Les dérivées d'ordres supérieurs peuvent être définies d'une manière analogue par

 .

Il est possible de montrer que   est linéaire en  .

Exemples

modifier
  • Dérivée de la moyenne :  . Les dérivées d'ordre supérieur sont égales à 0.
  • Dérivée de la variance :  .

Dérivée de Gateaux et dérivée de Fréchet

modifier

Il existe en réalité plusieurs notions de dérivées pour les fonctionnelles. La dérivée, définie telle qu'au-dessus, correspond à la dérivée de Gateaux, ou dérivée directionnelle. On peut aussi définir la dérivée de Fréchet, ou dérivée fonctionnelle, d'une statistique fonctionnelle  . Cette dérivée est l'unique application linéaire   telle que

 

  désigne la norme infini. Dans le cas où les dérivées au sens de Fréchet et au sens de Gateaux existent toutes les deux, elles coïncident nécessairement:

 .

Cela permet de justifier que la dérivée de Gateaux est linéaire par rapport à  , puisque   est linéaire.

Comme la dérivée de Gateaux se ramène à une dérivée unidimensionnelle calculable en utilisant les règles basiques de dérivation, elle est d'un meilleur usage pratique.

Lien avec la fonction d'influence

modifier

Dans de nombreux cas, la dérivée de   en   dans la direction de   peut s'écrire  . La fonction   est alors appelée la fonction d'influence de la statistique   en  . La définition de   est d'ailleurs très similaire à celle de la dérivée de   : la distribution   y est simplement remplacée par une distribution de Dirac centrée en  .

Développement de Von Mises

modifier

Étant donnés deux distributions de probabilités   et  , le développement de Von Mises d'une statistique   en   correspond à l'approximation de   par

 

pour un certain entier positif  .

Cette approximation est en réalité le développement de Taylor en   de la fonction réelle  , évalué en  .

Étant donné un échantillon   supposé issu de variables aléatoires indépendantes et identiquement distribuées selon une distribution  , le développement de Von Mises est souvent appliqué pour approximer   par  . Comme  , cela permet une approximation de la  . En particulier, ça permet une meilleur intuition sur la distribution asymptotique de  [2].

Lien avec la distribution asymptotique

modifier

Normalité asymptotique

modifier

Supposons que l'échantillon   soit composé de   variables aléatoires indépendantes et identiquement distribuées suivant une distribution  .

Alors, sous certaines conditions de régularité, si le terme d'ordre 1 du développement de Von Mises de   en   est non nul,   sera asymptotiquement normale.

Pour s'en rendre compte informellement, il suffit de se rappeler que   est la distribution empirique de  , puis d'écrire le développement de Von Mises au voisinage de   :

 

en utilisant la linéarité de  . Puisque les  sont indépendants et identiquement distribués,   le sont aussi le théorème central limite s'applique et indique que   est asymptotiquement normalement distribué, et donc   aussi.

Distribution asymptotique suivant une combinaison de χ²

modifier

Lorsque le premier terme non nul du développement de Von Mises est le second terme, sous certaines conditions de régularité, la distribution asymptotique de   peut s'écrire comme une combinaison linéaire de variables aléatoires indépendantes distribuées suivant une loi du χ² à un degré de liberté.

Autres distributions asymptotiques

modifier

Lorsque le premier terme non nul du développement de Von Mises est le troisième ou plus, il existe des expressions plus complexes de la distribution asymptotique de  . Toutefois, ces distributions ne s'expriment pas simplement en utilisant des lois de probabilité usuelles[3].

Voir aussi

modifier

Références

modifier
  1. (en) R. v. Mises, « On the Asymptotic Distribution of Differentiable Statistical Functions », The Annals of Mathematical Statistics, vol. 18, no 3,‎ , p. 309–348 (ISSN 0003-4851, DOI 10.1214/aoms/1177730385, lire en ligne, consulté le )
  2. Serfling, Robert J. Verfasser, Approximation Theorems of Mathematical Statistics (ISBN 978-0-470-31719-8 et 0-470-31719-1, OCLC 959994695, lire en ligne)
  3. H. Rubin et R. A. Vitale, « Asymptotic Distribution of Symmetric Statistics », The Annals of Statistics, vol. 8, no 1,‎ (ISSN 0090-5364, DOI 10.1214/aos/1176344898, lire en ligne, consulté le )