Méthode des moments (probabilité)

En mathématiques et plus particulièrement en théorie des probabilités, la méthode des moments consiste à prouver une convergence en loi en démontrant la convergence de tous les moments[1].

Soit X une variable aléatoire réelle dont tous les moments existent, c'est-à-dire

.

Supposons que la loi de X soit complètement déterminée par ses moments, c'est-à-dire que si Y est une autre variable aléatoire telle que

alors X et Y ont la même loi.

Sous ces conditions, si (Xn) est une suite de variables aléatoires telle que

pour toutes les valeurs de k, alors la suite (Xn) converge en loi vers X.

La méthode des moments a été introduite par Pafnuty Chebyshev pour prouver le théorème central limite ; Chebyshev a cité des contributions antérieures d'Irénée-Jules Bienaymé[2]. Plus récemment, elle a été appliquée par Eugene Wigner pour prouver la loi du demi-cercle et a depuis trouvé de nombreuses applications dans la théorie des matrices aléatoires[3].

Références modifier

  1. (en) A V Prokhorov, Encyclopaedia of Mathematics (online) (ISBN 1-4020-0609-8, MR 1375697, lire en ligne), « Moments, method of (in probability theory) »
  2. (en) H Fischer, A history of the central limit theorem. From classical to modern probability theory., New York, Springer, coll. « Sources and Studies in the History of Mathematics and Physical Sciences », (ISBN 978-0-387-87856-0, MR 2743162), « 4. Chebyshev's and Markov's Contributions. »
  3. (en) G W Anderson, A Guionnet et O Zeitouni, An introduction to random matrices., Cambridge, Cambridge University Press, (ISBN 978-0-521-19452-5), « 2.1 »

Voir aussi modifier

Problème des moments