Théorème des deux séries de Kolmogorov

En théorie des probabilités, le théorème des deux séries de Kolmogorov est un résultat sur la convergence des séries aléatoires. Il résulte de l'inégalité de Kolmogorov et est utilisé dans une preuve de la loi forte des grands nombres .

Énoncé du théorème

modifier

Soit   une suite de variables aléatoires indépendantes d'espérance   et de variance  , tel que   et   convergent dans ℝ. Alors   converge dans ℝ presque sûrement .

Supposons sans perte de généralité que   . Posons  . Nous allons voir que   presque sûrement

Pour chaque   ,   Ainsi, pour chaque   et   ,   Alors que la deuxième inégalité est due à l'inégalité de Kolmogorov .

En supposant que   converge, il s'ensuit que le dernier terme tend vers 0 lorsque  , pour chaque   .

Références

modifier
  • Durrett, Rick. Probabilité: théorie et exemples. Duxbury advanced series, troisième édition, Thomson Brooks / Cole, 2005, section 1.8, pp.   60–69.
  • M. Loève, Théorie des probabilités, Princeton Univ. Presse (1963) pp. Secte. 16,3
  • W. Feller, Une introduction à la théorie des probabilités et ses applications, 2, Wiley (1971) pp. Secte. IX.9