Méthode des moments généralisée

Méthode des moments généralisée
Type
Méthode statistique (d)Voir et modifier les données sur Wikidata
Inventeur
Date d'invention
Décrit par
Large Sample Properties of Generalized Method of Moments Estimators (d)Voir et modifier les données sur Wikidata

En statistique et en économétrie, la méthode des moments généralisée (en anglais generalized method of moments ou GMM) est une méthode générique pour estimer les paramètres d'un modèle statistique qui s'appuie sur un certain nombre de conditions sur les moments d'un modèle. Habituellement, cette méthode est utilisée dans un contexte de modèle semi-paramétrique, où le paramètre étudié est de dimension finie, alors que la forme complète de la fonction de distribution des données peut ne pas être connue (de ce fait, l'estimation par maximum de vraisemblance n'est pas applicable).

Cette méthode requiert la spécification d'un certain nombre de conditions de moments sur le modèle. Ces conditions sont exprimées en fonction des paramètres du modèle et des données, de façon que leur espérance soit nulle lorsque les paramètres sont à leur vraie valeur. Appliquer la méthode des moments généralisée revient à minimiser une certaine norme sur les moyennes de ces fonctions calculées sur les données disponibles.

Les estimateurs MGM sont convergents, asymptotiquement normaux et efficaces dans la classe de tous les estimateurs qui n'utilisent pas d'information supplémentaire en dehors de celle contenue dans les conditions de moment.

La méthode est une extension de la méthode des moments. Elle a été développée par Lars Peter Hansen en 1982 dans un article intitulé « Large sample properties of generalized method of moments estimators », ce qui lui a valu en partie le Prix Nobel d’économie en 2013.

Description modifier

Soit une base de données contenant N observations {Yi} i=1..N, dans laquelle chaque observation Yi est un vecteur aléatoire de dimension n. On suppose que les données obéissent à un modèle statistique défini par un paramètre inconnu θ ∈ Θ. On cherche à estimer la vraie valeur du paramètre, notée θ0, à partir des observations disponibles.

La méthode des moments généralisée fait l’hypothèse que les données {Yi} sont générées selon un processus stochastique ergodique (faiblement) stationnaire. Le cas où les données sont des variables indépendantes et identiquement distribuées est un cas particulier de cette hypothèse plus générale.

Pour utiliser la méthode des moments généralisée, on se donne des conditions de moments, c'est-à-dire une fonction à valeur vectorielle g(Y,θ) telle que

 

  est l'espérance et Yi est une observation quelconque du processus. On suppose de plus que m(θ) est nul si et seulement si θ = θ0, afin que le paramètre optimal soit correctement identifié.

L'idée principale de la méthode des moments généralisée est de remplacer la valeur théorique de l'espérance par son analogue empirique : la moyenne calculée sur la base de données :

 

puis de chercher la valeur de θ minimisant la norme de cette expression, qui sera donc l'estimateur de la vraie valeur du paramètre. La loi des grands nombres garantit que pour une base de données suffisamment grande,   et donc que  . La méthode des moments généralisée considère donc la recherche d'un estimateur comme un problème de minimisation pour une certaine famille de normes de m :

 

La famille de normes considérée dans la méthode, ||.||W, est définie par

 

W est une matrice définie positive. En pratique on calcule un estimateur de   , noté  , à partir des données disponibles. L'estimateur MGM peut donc être écrit sous la forme suivante :

 

Si ses conditions de validité sont remplies, cet estimateur est convergent, asymptotiquement normal. Il est également asymptotiquement efficient, pourvu que   soit judicieusement choisie.

Propriétés modifier

Convergence modifier

L'estimateur est convergent si et seulement si l'estimateur converge en probabilité vers la vraie valeur du paramètre quand le nombre d'observations augmente :

 

Les conditions suffisantes pour la convergence sont les suivantes :

  1.  , où  est une matrice semi-définie positive
  2.  
  3. L'espace Θ des paramètres admissibles est compact
  4. g(Y,θ) est continue avec une probabilité de 1 pour toute valeur de θ
  5.  est bornée

La condition (2), appelée condition d'identification globale est souvent difficile à vérifier. Il existe cependant des conditions nécessaires (mais non suffisantes) qui sont plus facile à vérifier et permettent de détecter des problèmes de non-identification :

  • Condition d'ordre : La dimension de la fonction des moments m(θ) est supérieure ou égale a la dimension de θ
  • Condition d'identification locale : Si g(Y,θ) est continûment dérivable dans un voisinage de θ0, alors la matrice  doit être de rang n

Dans les cas d'applications pratique, on fait souvent le postulat que la condition d'identification globale est vérifiée.

Normalité asymptotique modifier

La normalité asymptotique est une propriété très utile en pratique car elle permet de définir un intervalle de confiance pour l'estimateur et d'effectuer des tests statistiques.

On définit les deux matrices auxiliaires suivantes :

 

Sous les conditions définies ci-dessous, l'estimateur converge en loi vers une loi normale :

 

Les conditions de normalité asymptotique sont les suivantes :

  1. L'estimateur est convergent (tel que défini au paragraphe précédent)
  2. L'espace Θ des paramètres admissibles est compact
  3. g(Y,θ) est continûment différentiable dans un voisinage   de θ0 avec une probabilité de 1
  4.  est bornée
  5.  est bornée
  6. La matrice GTWG est inversible

Efficience modifier

Jusqu'ici on n'a posé comme seule condition sur W d'être semi-définie positive. Toute matrice ainsi choisie produira un estimateur convergent et asymptotiquement normal ; le choix de la matrice W influant uniquement sur la variance asymptotique de l'estimateur. On peut toutefois vérifier qu'en choisissant

 

l'estimateur correspondant sera le plus efficient parmi tous les estimateurs asymptotiquement normaux, c'est-à-dire l'estimateur de variance minimale. Dans ce cas, la formule de la distribution normale de l'estimateur se simplifie en

 

Utilisation pratique modifier

La principale difficulté dans la mise en œuvre de l'estimateur optimal décrit ci-dessus est l'impossibilité de calculer directement Ω-1. En effet la matrice Ω est définie par la valeur de g en θ0. Or c'est justement θ0 que l'on cherche à estimer. Dans le cas particulier ou les valeurs Yi sont indépendantes et identiquement distribuées, on peut estimer la matrice W optimale en utilisant l'estimateur de θ0 et en calculant la moyenne :

 

Méthode des moments en deux étapes modifier

Cette méthode (two-step GMM) est la plus couramment utilisée :

  1. On prend W = I (la matrice identité), ou une autre matrice semi-définie positive, et on calcule une première valeur estimée de θ notée  
  2. On calcule alors  , qui est un estimateur convergeant en probabilité vers Ω-1. On recalcule alors une nouvelle valeur estimée de θ avec cette matrice.

Méthode des moments itérative modifier

Il s'agit du prolongement de la méthode précédente a un nombre arbitraire d'étapes : à chaque itération on recalcule une nouvelle estimation de  puis un nouvel estimateur  avec cette nouvelle matrice W, jusqu'à convergence.

Méthode des moments continue modifier

Dans cette variante (continuously updating GMM - CUGMM) on estime simultanément θ et W.

Dans tous les cas, on se heurte également a la difficulté du problème de minimisation lors de l'estimation de θ, l'espace des paramètres étant potentiellement de dimension élevée.

Cas particuliers modifier

De nombreux estimateurs statistiques utilisés couramment peuvent être vus comme des cas particuliers de la méthode des moments généralisés :

  • la méthode des moindres carrés ordinaire (ordinary least squares) revient à utiliser la condition de moments  
  • la méthode des moindres carrés pondérés (weighted least squares) revient à utiliser la condition de moments  
  • la méthode des variables instrumentales (instrumental variables) revient à utiliser la condition de moments  
  • la méthode des moindres carrés non linéaires (non-linear least squares) revient a utiliser la condition de moments  
  • la méthode du maximum de vraisemblance revient à utiliser la condition de moments  

Bibliographie modifier

Voir aussi modifier