Différentiabilité en moyenne quadratique (statistiques)

propriété d'un modèle statistique

La différentiabilité en moyenne quadratique est une propriété de certains modèles statistiques introduite par Lucien Le Cam, détaillée dans un article de 1970[1]. La différentiabilité en moyenne quadratique d'un modèle garantit certains résultats asymptotiques, tels que la normalité asymptotique de l'estimateur du maximum de vraisemblance associé, ou la normalité asymptotique locale.

Définition

modifier

Soit   un modèle statistique dépendant d'un paramètre   de dimension  , générant une variable aléatoire   dans un espace  . Notons   la vraisemblance d'une observation   sous ce modèle avec une valeur   du paramètre  .

Le modèle   est dit différentiable en moyenne quadratique en   s'il existe une fonction mesurable   telle que, pour tout   de   dans un voisinage de 0,

 [2].

Remarques

modifier
  • Dans la plupart des cas, la fonction   correspond à la dérivée de la log-vraisemblance :  , souvent appelée fonction score du modèle. En effet, lorsque   est dérivable par rapport à  ,   correspond généralement à la dérivée de   par rapport à  , c'est-à-dire à  .
  • Cette définition désigne en réalité la différentiabilité en moyenne quadratique de la racine carrée de la vraisemblance de ce modèle. Pour être rigoureux, il faudrait donc parler d'un modèle dont la racine carrée de la vraisemblance est différentiable en moyenne quadratique. Cependant, l'appellation différentiabilité en moyenne quadratique est plus concise et plus couramment utilisée.

Différentiabilité dans l'espace L2

modifier

Comme dit précédemment, la différentiabilité en moyenne quadratique d'une loi de probabilité correspond en réalité à la différentiabilité de la racine carrée de la vraisemblance dans l'espace des fonctions   (fonctions dont le carré est intégrable) muni de la norme 2[3].

Pour mieux voir cela, considérons une loi de probabilité dépendant d'un paramètre  , dont nous noterons la vraisemblance  .

La racine carrée de cette vraisemblance peut être vue comme une application qui, à une valeur de paramètre   fait correspondre une fonction   dont le carré est intégrable (d'intégrale 1 puisque   est une densité), c'est-à-dire un élément de   :

 .

Cette application est différentiable dans   en   s'il existe un élément   de   tel que pour tout   dans un voisinage de  ,   lorsque h tend vers 0. Cette égalité porte sur des fonctions de  , le terme   désigne donc ici une fonction dont la norme 2 est négligeable devant   . Cette égalité peut donc se réécrire comme

  .

Exemples

modifier

Une démarche classique pour montrer la différentiabilité en moyenne quadratique d'une loi de probabilité est la suivante :

  • Effectuer un développement limité de la racine carrée de la vraisemblance:  ,
  • Montrer que   peut être dominé par une fonction  , intégrable et indépendante de  , pour tout   dans un voisinage de 0, (par exemple en utilisant la dérivée seconde de la racine carrée de la vraisemblance et l'inégalité de Taylor-Lagrange),
  • Conclure en utilisant le théorème de convergence dominée.

Distribution exponentielle

modifier

La loi exponentielle, paramétrée par sa moyenne  , ou par son intensité  , est différentiable en moyenne quadratique en toute valeur du paramètre différent de 0. La fonction score associée est  .

Contre exemple

modifier

La loi uniforme sur l'intervalle   n'est pas différentiable en moyenne quadratique. En effet, lorsque   sont générés de façon iid suivant une loi uniforme sur  , l'estimateur du maximum de vraisemblance de   est donné par   et n'est pas asymptotiquement normal. Or l'estimateur du maximum de vraisemblance associé à un modèle différentiable en moyenne quadratique est nécessairement asymptotiquement normal.

Propriétés

modifier

Normalité asymptotique du maximum de vraisemblance

modifier

Si des échantillons aléatoires de tailles  ,  , sont générés de manière iid selon une loi de probabilité   différentiable en moyenne quadratique, alors l'estimateur du maximum de vraisemblance est asymptotiquement normal avec pour variance asymptotique l'inverse de l'information de Fisher. Plus précisément, lorsque   tend vers l'infini,

 

  est l'estimateur du maximum de vraisemblance, défini comme  ,   désigne l'information de Fisher définie comme   et où   désigne la convergence en loi.

Normalité asymptotique locale

modifier

Une loi de probabilité   différentiable en moyenne quadratique donne un modèle statistique localement asymptotiquement normal lorsqu'on génère des données iid selon cette loi.

Voir aussi

modifier

Références

modifier
  1. L. LeCam, « On the Assumptions Used to Prove Asymptotic Normality of Maximum Likelihood Estimates », The Annals of Mathematical Statistics, vol. 41, no 3,‎ , p. 802–828 (ISSN 0003-4851, DOI 10.1214/aoms/1177696960, lire en ligne, consulté le )
  2. A. W. van der Vaart, Asymptotic Statistics, Cambridge University Press, coll. « Cambridge Series in Statistical and Probabilistic Mathematics », (ISBN 978-0-521-78450-4, DOI 10.1017/cbo9780511802256, lire en ligne)
  3. (en) David Pollard, « Another Look at Differentiability in Quadratic Mean », dans Festschrift for Lucien Le Cam: Research Papers in Probability and Statistics, Springer, (ISBN 978-1-4612-1880-7, DOI 10.1007/978-1-4612-1880-7_19, lire en ligne), p. 305–314