Constante de normalisation

En mathématiques, une constante de normalisation ou facteur normalisant est une constante introduite dans la définition d'objets mathématiques pour réduire certains calculs et assurer que le résultat soit égal à 1.

Un exemple courant est en théorie des probabilités, où une constante multiplicatrice est introduit dans la définition de fonction afin qu'elle ait une propriété caractéristique des densités de probabilités, à savoir une masse égale à 1.

Un autre cas d'utilisation est pour les polynômes orthogonaux, où ces constantes sont introduites dans la famille de polynômes de sorte que la famille soit orthonormale.

Définition en probabilités modifier

En théorie des probabilités, une constante de normalisation est une constante par laquelle une fonction positive doit être multipliée afin que son intégrale sur son domaine de définition soit égale à 1, ce qui en fait une densité de probabilité[1],[2].

Il faut remarquer que si la densité de probabilités est caractérisée par un ou plusieurs paramètres, la constante de normalisation peut également dépendre de ces paramètres.

Exemples modifier

Loi gaussienne

En considérant une fonction gaussienne

 
on a la valeur de l'intégrale de Gauss :
 

Ainsi, afin d'obtenir la densité d'une loi normale (ou loi de Gauss) à partir de  , il faut poser :

 
afin de bien avoir
 
C'est la densité de la loi normale standard ou centrée réduite (l'espérance vaut 0 et sa variance vaut 1)[3].

La constante de normalisation est donc  .

Loi de Poisson

En considérant la somme de série :

 
on peut définir une densité de probabilités (discrète) sur N par[4]
 
On reconnait la densité d'une loi de Poisson d'espérance λ.

Théorème de Bayes modifier

Le théorème de Bayes dit que la probabilité a posteriori est proportionnelle au produit de la probabilité a priori et de la fonction de vraisemblance. Cette proportionnalité implique qu'il faut multiplier cette probabilité par une constante de normalisation pour avoir une mesure égale à 1 sur tout l'espace. Dans un cas discret simple, cela se traduit par :

 

P(H0) est la probabilité a priori que l'hypothèse H0 est vraie ; P(D|H0) est la probabilité conditionnelle des données sachant que l'hypothèse est vraie, mais dans le cas où les données sont connues, cela revient à la vraisemblance de l'hypothèse sachant les données ; P(H0|D) est la probabilité a posteriori que l'hypothèse est vraie connaissant les données. P(D) devrait donc être la probabilité de produire les données, mais cette valeur peut être difficile à calculer, aussi une alternative à cette formule est de la voir sous l'angle de la proportionnalité :

 

Comme P(H|D) est une probabilité, la somme de toutes les hypothèses (exclusives mutuellement) doit être égales à 1, ce qui mène à :

 

Dans ce cas, l'inverse de la valeur

 

est la constante de normalisation[5]. Le cas continu se fait de façon équivalente, la somme discrète devenant alors une intégrale.

Dans la pratique, il existe plusieurs méthodes d'estimation de la constante de normalisation pour des raisons pratiques, comme l'échantillonnage par pont[6], la méthode de Monte-Carlo, l'estimateur de moyenne harmonique généralisée[7], et l'échantillonnage par importance[8].

Polynômes orthogonaux modifier

Une constante de normalisation peut être utilisée pour une famille d'éléments orthogonale (dont le produit scalaire de deux éléments différents de la famille vaut 0) pour la rendre orthonormale (ou orthonormée) (la norme de chaque élément vaut 1).

Exemples modifier

Les polynômes de Legendre (Pn(x)) sont caractérisés par leur orthogonalité pour la mesure  . La constante de normalisation doit donc être définie de sorte que

 

On a en particulier

 

La famille de polynômes n+1/2Pn(x)) est donc bien orthonormale.

Autres applications modifier

 
Triangle hyperbolique (en jaune) et secteur hyperbolique (en rouge) correspondant à l'angle hyperbolique u, à l'hyperbole équilatère (d'équation y = 1/x). Les branches du triangle mesurent 2 fois les cosinus et sinus hyperboliques de u.

La constante 1/2 est utilisée pour définir les fonctions hyperboliques cosh et sinh à partir des longueurs des côtés adjacent et opposé d'un secteur hyperbolique, de façon à retrouver une similarité avec la définition des cosinus et sinus circulaire dans le cercle trigonométrique.

Notes modifier

  1. Continuous Distributions at University of Alabama.
  2. Feller, 1968, p. 22.
  3. Feller, 1968, p. 174.
  4. Feller, 1968, p. 156.
  5. Feller, 1968, p. 124.
  6. (en) Quentin F. Gronau, Alexandra Sarafoglou, Dora Matzke, Alexander Ly, Udo Boehm, Maarten Marsman, David S. Leslie, Jonathan J. Forster, Eric-Jan Wagenmakers et Helen Steingroever, « A tutorial on bridge sampling », Journal of Mathematical Psychology, vol. 81,‎ , p. 80-97 (DOI 10.1016/j.jmp.2017.09.005)
  7. (en) Michael A. Newton et Adrian E. Raftery, « Approximate Bayesian Inference with the Weighted Likelihood Bootstrap », Journal of the Royal Statistical Society: Series B (Methodological), vol. 56, no 1,‎ , p. 3-26 (DOI 10.1111/j.2517-6161.1994.tb01956.x)
  8. (en) Quentin Gronau, « bridgesampling: An R Package for Estimating Normalizing Constants », sur The Comprehensive R Archive Network, (consulté le )

Liens externes modifier