Théorème de l'espérance totale

théorème de probabilités sur les espérances itérées

Le théorème de l'espérance totale[1] est une proposition de la théorie des probabilités affirmant que l'espérance de l'espérance conditionnelle de X sachant Y est la même que l'espérance de X.

Précisément, si

on a alors le résultat suivant :

.

Propriétés modifier

Caractérisation de l'espérance conditionnelle modifier

L'espérance conditionnelle E(X|Y) est elle-même une variable aléatoire, dont la valeur dépend de la valeur de Y. À noter que l'espérance conditionnelle de X sachant l'événement [Y = y] est une fonction de y. Si on note E(X|Y = y) = g(y), alors la variable aléatoire E(X|Y) est tout simplement g(Y).

Dans le cas d'une partition modifier

Un cas particulier de ce résultat est que, si les événements   forment une partition (c'est-à-dire que ces événements sont deux à deux disjoints et que leur union forme l'univers), alors on a :

 

Un exemple illustratif modifier

Supposons que deux usines fabriquent des ampoules électriques. Les ampoules de l'usine X ont une durée de vie de 5000 heures, alors que ceux de l'usine Y fonctionnent en moyenne pendant 4000 heures. On dit que l'usine X fournit 60 % de toutes les ampoules disponibles. Combien de temps peut-on espérer qu'une ampoule achetée durera ?

En utilisant le théorème de l'espérance totale, on a :

 

  •   est la durée de vie espérée de l'ampoule;
  •   est la probabilité pour que l'ampoule achetée ait été fabriquée par l'usine X;
  •   est la probabilité pour que l'ampoule achetée ait été fabriquée par l'usine Y;
  •   est la durée de vie espérée d'une ampoule fabriquée par l'usine X;
  •   est la durée de vie espérée d'une ampoule fabriquée par l'usine Y.

Ainsi, chaque ampoule achetée a une durée de vie espérée de 4600 heures, c'est-à-dire qu'on peut s'attendre "en moyenne" à ce qu'elle fonctionne 4600 heures.

Démonstration modifier

Dans le cas discret modifier

 

Dans le cas général modifier

Plus formellement, l'énoncé dans le cas général fait appel à un espace probabilisé   sur lequel deux sous  -tribus   sont définies. Pour une variable aléatoire   sur un tel espace, le théorème de l'espérance totale stipule que

 

Puisqu'une espérance conditionnelle est une dérivée de Radon–Nikodym, il suffit de vérifier les deux propriétés suivantes pour démontrer le théorème de l'espérance totale.

  •   est  -mesurable
  •  

La première proposition est vraie d'après la définition de l'espérance conditionnelle, et la seconde est vraie puisque   implique que

 

Dans le cas particulier où   et   le théorème de l'espérance totale peut se résumer à l'énoncé suivant :

 

À propos de la notation sans indice modifier

En utilisant la notation  , l'ajout d'indices successifs peut rapidement mener à des lourdeurs de notation. Les indices sont donc souvent omis. Dans le cas de d'espérances en cascade (on parlera d'espérances "itérées"),   signifie d'ordinaire  . L'espérance la plus "à l'intérieur" est l'espérance conditionnelle de   sachant  , et l'espérance "à l'extérieur" est toujours déduite en fonction de  . Cette convention est notamment utilisé dans l'ensemble de cet article.

Espérances itérées et ensembles conditionnés imbriqués modifier

La formulation suivante de la loi des espérances itérées joue un rôle important dans de nombreuses modélisations en économie et en finance

 

où la valeur de I2 est déterminé par celle de I1.

Pour que ce résultat soit plus parlant, imaginons un investisseur qui cherche à prévoir pour une action son prix X (aléatoire), à l'aide d'informations limitées dont il dispose dans l'ensemble I1. La loi des espérances itérées dit que l'investisseur ne pourra jamais se faire une idée plus précise de la prévision de X en conditionnant X par des informations encore plus spécifiques (I2), à condition que ces prévisions plus spécifiques soient elles-mêmes conçues avec l'information initiale (I1).

Cette formulation est souvent appliquée dans un contexte de séries temporelles, où Et désigne l'espérance conditionnelle déduite de l'information observée jusqu'à l'instant t inclus. Dans des modèles typiques, l'ensemble des informations à l'instant t + 1 contient toutes les informations disponibles jusqu'à l'instant t, ainsi que des informations complémentaires révélées à l'instant t + 1. On peut alors écrire :

 

Voir aussi modifier

Références modifier

  1. (en) Neil A. Weiss, A Course in Probability, Boston, Addison–Wesley, , 380–383 p. (ISBN 0-321-18954-X, lire en ligne)