Lemme de classe monotone

Le lemme de classe monotone, dû à Wacław Sierpiński[1] et popularisé par Eugene Dynkin[2], permet de démontrer, de manière économique, l'égalité entre deux lois de probabilité : de même que deux applications linéaires qui coïncident sur une base coïncident sur l'espace entier, deux mesures de probabilité qui coïncident sur un π-système, coïncident sur la tribu engendrée par ce π-système.

Dans certains ouvrages, le lemme de classe monotone apparaît sous le nom de « théorème pi-lambda de Dynkin ».

Classe monotone et π-système modifier

Définition — 

  • Une classe   de parties d'un ensemble Ω est appelée π-système si cette classe est stable par intersection finie :
 
  • Une classe   de parties d'un ensemble Ω est appelée λ-système ou classe monotone si cette classe contient Ω et est stable par différence, et par réunion croissante :
 
Exemples de π-systèmes :
  • une classe d'intervalles :  
  • la classe des singletons :  
  • la classe des pavés :  
Un exemple de classe monotone :

Soit deux mesures de probabilité   et   définies sur   La classe   est une classe monotone.

Énoncé et démonstration du lemme de classe monotone modifier

Lemme de classe monotone —  La plus petite classe monotone contenant le π-système   est la tribu engendrée par  

Applications modifier

Lemme d'unicité des mesures de probabilité modifier

Le lemme de classe monotone a une conséquence immédiate

Lemme d'unicité des mesures de probabilité —  Deux mesures de probabilité   et   définies sur l'espace probabilisable   et coincidant sur le π-système   coïncident aussi sur la tribu engendrée par    :

 

Parmi de nombreuses applications importantes du lemme d'unicité, citons celle qui est peut-être la plus importante :

Corollaire — Il suit que :

Critères d'indépendance modifier

Par exemple,

Critères — Soit X et Y deux variables aléatoires réelles définies sur un espace probabilisé  

  • Si, pour tout couple (x,y) de nombres réels,
 
alors X et Y sont indépendantes.
  • Si Y est à valeurs dans   et si, pour tout couple  
 
alors X et Y sont indépendantes.
  • Bien sûr, si X et Y sont à valeurs dans   et si, pour tout couple  
 
alors X et Y sont indépendantes.

La démonstration du dernier critère ne nécessite pas le lemme de classe monotone, mais ce lemme est très utile pour la démonstration des deux premiers critères. On peut utiliser le deuxième critère pour démontrer, par exemple, que dans la méthode de rejet, le nombre d'itérations est indépendant de l'objet aléatoire (souvent un nombre aléatoire) engendré au terme de ces itérations. Pour la démonstration de ces critères, ainsi que pour la démonstration du lemme de regroupement, on a besoin de la définition et de la proposition[5] suivantes.

Théorème — Définition Dans un espace probabilisé   une famille finie   de classes incluses dans   est une famille mutuellement indépendante si et seulement si

 

Théorème — Proposition Si, dans un espace probabilisé   une famille finie   de π-systèmes inclus dans   est une famille mutuellement indépendante, alors la famille   est une famille de tribus mutuellement indépendantes.

Applications :
  • Posons   et   Alors, sous les hypothèses du premier critère,   et   sont des π-systèmes indépendants. En vertu de la proposition,   et   sont alors des tribus indépendantes. Mais   et   ce qui assure bien l'indépendance du couple (X,Y).
  • Posons   et   Sous les hypothèses du deuxième critère,   et   sont des π-systèmes indépendants. Par ailleurs,   et   et on conclut comme précédemment. Pour démontrer le troisième critère, on utilise cette fois   et  

Voir aussi modifier

Notes et références modifier

  1. 1928, Un théorème général sur les familles d'ensembles, Fund. Math, 12, 206-210,
  2. (en) Eugene Dynkin (dir.) (trad. D. E. Brown), Theory of Markov Processes, Dover Publications Inc., (1re éd. 1961), 224 p. (ISBN 978-0-486-45305-7 et 0-486-45305-7, lire en ligne), chap. 1, p. 1-2.
  3. Par définition de   (voir tribu engendrée)   est la plus petite (pour l'inclusion) tribu contenant   alors que   est une tribu contenant   Donc   est plus petite (pour l'inclusion) que   autrement dit  
  4. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], démonstration développée à partir de la démonstration du Théorème 1.1, page 2.
  5. (en) Olav Kallenberg (en), Foundations of Modern Probability, 2e éd. [détail de l’édition], Lemme 3.6, page 50.

Bibliographie modifier

  • (en) Olav Kallenberg, Foundations of Modern Probability, New York, Springer, coll. « Probability and Its Applications », (réimpr. 2001), 638 p. (ISBN 0-387-95313-2, lire en ligne)

Pages liées modifier