Lemme de classe monotone

Le lemme de classe monotone, dû à Wacław Sierpiński[1] et popularisé par Dynkin[2], permet de démontrer, de manière économique, l'égalité entre deux lois de probabilité : de même que deux applications linéaires qui coïncident sur une base coïncident sur l'espace entier, deux mesures de probabilité qui coïncident sur un π-système, coïncident sur la tribu engendrée par ce π-système.

Dans certains ouvrages, le lemme de classe monotone apparaît sous le nom de « Théorème pi-lambda de Dynkin ».

Classe monotone et π-systèmeModifier

Définition — 

  • Une classe   de parties d'un ensemble Ω est appelée π-système si cette classe est stable par intersection finie :
 
  • Une classe   de parties d'un ensemble Ω est appelée λ-système ou classe monotone si cette classe contient Ω et est stable par différence, et par réunion croissante :
 
Exemples de π-systèmes :
  • une classe d'intervalles :  
  • la classe des singletons :  
  • la classe des pavés :  
Un exemple de classe monotone :

Soit deux mesures de probabilité   et   définies sur   La classe   est une classe monotone.

Énoncé et démonstration du lemme de classe monotoneModifier

Lemme de classe monotone —  La plus petite classe monotone contenant le π-système   est la tribu engendrée par  

ApplicationsModifier

Lemme d'unicité des mesures de probabilitéModifier

Le lemme de classe monotone a une conséquence immédiate

Lemme d'unicité des mesures de probabilité —  Deux mesures de probabilité   et   définies sur l'espace probabilisable   et coincidant sur le π-système   coïncident aussi sur la tribu engendrée par    :

 

Parmi de nombreuses applications importantes du lemme d'unicité, citons celle qui est peut-être la plus importante :

Corollaire — Il suit que :

Critères d'indépendanceModifier

Par exemple,

Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé  

  • Si, pour tout couple (x,y) de nombres réels,
 
alors X et Y sont indépendantes.
  • Si Y est à valeurs dans   et si, pour tout couple  
 
alors X et Y sont indépendantes.
  • Bien sûr, si X et Y sont à valeurs dans   et si, pour tout couple  
 
alors X et Y sont indépendantes.

La démonstration du dernier critère ne nécessite pas le lemme de classe monotone, mais ce lemme est très utile pour la démonstration des deux premiers critères. On peut utiliser le deuxième critère pour démontrer, par exemple, que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations. Pour la démonstration de ces critères, ainsi que pour la démonstration du lemme de regroupement, on a besoin de la définition et de la proposition[5] suivantes.

Définition — Dans un espace probabilisé   une famille finie   de classes incluses dans   est une famille indépendante si et seulement si

 

Proposition — Si, dans un espace probabilisé   une famille finie   de π-systèmes inclus dans   est une famille indépendante, alors la famille   est une famille de tribus indépendantes.

Applications :
  • Posons   et   Alors, sous les hypothèses du premier critère,   et   sont des π-systèmes indépendants. En vertu de la proposition,   et   sont alors des tribus indépendantes. Mais   et   ce qui assure bien l'indépendance du couple (X,Y).
  • Posons   et   Sous les hypothèses du deuxième critère,   et   sont des π-systèmes indépendants. Par ailleurs,   et   et on conclut comme précédemment. Pour démontrer le troisième critère, on utilise cette fois   et  

Voir aussiModifier

Notes et référencesModifier

  1. 1928, Un théorème général sur les familles d'ensembles, Fund. Math, 12, 206-210,
  2. (en) Eugene Dynkin (dir.) (trad. D. E. Brown), Theory of Markov Processes, Dover Publications Inc, (1re éd. 1961), 224 p. (ISBN 978-0-486-45305-7 et 0-486-45305-7, lire en ligne), chap. 1, p. 1-2.
  3. Par définition de   (voir tribu engendrée)   est la plus petite (pour l'inclusion) tribu contenant   alors que   est une tribu contenant   Donc   est plus petite (pour l'inclusion) que   autrement dit  
  4. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], démonstration développée à partir de la démonstration du Théorème 1.1, page 2.
  5. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], Lemme 3.6, page 50.

BibliographieModifier

  • (en) Olav Kallenberg, Foundations of Modern Probability, New York, Springer, coll. « Probability and Its Applications », (réimpr. 2001), 638 p. (ISBN 0-387-95313-2, lire en ligne)

Pages liéesModifier