Régression de Poisson

modèle statistique

En statistique, la régression de Poisson est un modèle linéaire généralisé utilisé pour les données de comptage et les tableaux de contingence[1]. Cette régression suppose que la variable réponse Y suit une loi de Poisson et que le logarithme de son espérance peut être modélisé par une combinaison linéaire de paramètre inconnus.

Régression de Poisson
Type
Type of statistical model (d), modèle de régression (d), modèle linéaire généraliséVoir et modifier les données sur Wikidata

Modèle de régression

modifier

Soit   un vecteur de variables indépendantes, et   la variable que l'on cherche à prédire. Réaliser une régression de Poisson revient à supposer que   suit une loi de Poisson de paramètre  , avec   et   les paramètres de la régression à estimer, et   le produit scalaire standard de  .

On peut ré-écrire le modèle ci-dessus

 

ou de manière plus compacte

 

avec un   correspondant au précédent avec un élément supplémentaire valant 1. De même,  .

L'objectif de la régression de Poisson est d'estimer  . Une fois ce vecteur estimé, il est possible de prédire   pour un nouveau   avec

 

Si l'on a accès à une collection de   couples indépendants :  , alors   peut être estimé par maximum de vraisemblance.

Estimation des paramètres par maximum de vraisemblance

modifier

Comme indiqué plus haut, à partir d'un paramètre   et d'un vecteur d'entrée  , la variable de sortie   suit une loi de Poisson de paramètre

 

La fonction de masse de cette loi de Poisson est alors

 

Supposons que l'on ait accès à une collection de   couples indépendants :  . Alors, pour un vecteur   donné, la fonction de vraisemblance (c'est-à-dire la probabilité d'obtenir cet ensemble de données particulier) s'écrit

 

L'estimateur du maximum de vraisemblance, comme son nom l'indique, renvoie la valeur de   qui maximise la vraisemblance des données. Pour ce faire, puisqu'il est difficile d'optimiser une fonction écrite comme un produit dont tous les termes sont positifs, on minimise la négative log-vraisemblance

 

On peut remarquer que le terme   ne dépend pas de  . Puisque l'on cherche à trouver le   qui minimise cette négative log-vraisemblance, on peut la simplifier à une constante additive près. Par abus de langage, on identifie la véritable log-vraisemblance négative et la version à une constante additive près :

 

Pour trouver le minimum de cette log-vraisemblance négative, on résout l'équation  , qui n'a pas de solution explicite. Cependant, puisque cette fonction est convexe, on peut utiliser des algorithmes efficace d'optimisation convexe comme la méthode de Newton pour obtenir rapidement la valeur optimale de  .

Références

modifier
  1. Cornillon, Pierre-André., Régression Avec R - 2e édition, EDP Sciences, (ISBN 978-2-7598-2183-9 et 2-7598-2183-8, OCLC 1127219494, lire en ligne)

Voir aussi

modifier