La méthode du rejet est une méthode utilisée dans le domaine des probabilités.

La méthode de rejet est utilisée pour engendrer indirectement une variable aléatoire  , de densité de probabilité   lorsqu'on ne sait pas simuler directement la loi de densité de probabilité   (c'est le cas par exemple si   n'est pas une densité classique, mais aussi pour la loi de Gauss[réf. nécessaire]).

Soit   un couple de variables aléatoires indépendantes tirées selon une loi uniforme, i.e.   est un point tiré uniformément dans le carré unité. On peut alors montrer que la distribution de   est la loi conditionnelle de   sachant l'événement

 

Autrement dit,

 

Pour simuler une suite de variables aléatoires réelles   de distribution identique à celle de   il suffit donc, dans une suite de tirages de couples   uniformes indépendants, de sélectionner les   correspondant aux tirages   vérifiant   et de rejeter les autres.

Algorithme

modifier
 
La méthode de rejet


On voudrait simuler une variable aléatoire réelle   de densité de probabilité  . On suppose

  • qu'il existe une autre densité de probabilité   telle que le ratio   soit borné, disons par   (i.e.  ),
  • qu'on sache simuler   de densité  

La version basique de la méthode de rejet prend la forme suivante:

  1. Boucler:
    • Tirer   de densité  
    • Tirer   selon la loi uniforme U(0;1), indépendamment de  
  2. Tant que   reprendre en 1;
  3. Accepter   comme un tirage aléatoire de densité de probabilité  

On remarque que l'algorithme comporte une boucle dont la condition porte sur des variables aléatoires. Le nombre d'itérations, notons-le   est donc lui-même aléatoire. On peut montrer que   suit la loi géométrique de paramètre   c'est-à-dire

 

En effet,

 

est la probabilité, lors d'une itération, de terminer la boucle, et, par conséquent, d'accepter Y. Par suite, l'espérance de  (c.-à-d. le nombre moyen d'itérations à effectuer avant d'obtenir une réalisation de la densité f ) vaut  .

 

On a donc tout intérêt à choisir c le plus petit possible. En pratique, une fois la fonction g choisie, le meilleur choix de c est donc la plus petite constante qui majore le ratio f/g, c'est-à-dire:

 

Notons que, soit c est supérieur strict à 1, soit f=g, la deuxième solution étant assez théorique : en effet, comme  

 

On a donc intérêt à choisir c le plus proche de 1 possible, pour que le nombre d'itérations moyen soit proche de 1 lui aussi. Bref, le choix de l'enveloppe g est primordial:

  • le tirage de la loi g doit être facile ;
  • l'évaluation de f(x)/g(x) doit être aisée ;
  • la constante c doit être la plus petite possible ;
  • la fonction cg doit majorer la densité f.

Les deux derniers points conduisent à rechercher une fonction g dont le graphe "épouse" étroitement celui de f.

Généralisations

modifier

Le fait que   peut être écrit comme  h est une fonction à valeurs dans [0;1]. On remplace l'étape 2 de l'algorithme initial par la condition:

Tant que  , reprendre en 1

Une autre généralisation peut être considérée lorsque l'évaluation du ratio f/g est délicate. On cherche alors à encadrer la fonction f par deux fonctions facilement évaluables:

 

tout en supposant qu'il existe une densité g telle que  . Aucune autre hypothèse n'est nécessaire; en particulier, il ne faut pas imposer que  . L'algorithme prend alors la forme suivante:

  1. Suite := vrai
  2. Tant que Suite
    • tirer Y selon g;
    • tirer U selon la loi uniforme U(0;1), indépendamment de Y;
    • Z := U c g(Y);
    • Suite := SI( , vrai, faux );
    • Si Suite alors
      • Si   alors Suite:= SI( ,vrai,faux) fin si
    • Fin si
  3. fin tant que
  4. retourne Y comme un tirage de f.

Dans cet algorithme, les fonctions h permettent de ne recourir à une comparaison à f (et donc à son évaluation) que très rarement.

Voir aussi

modifier

Bibliographie

modifier
  • (en) Robert, C.P. et George Casella, Monte Carlo Statistical Methods, New York, Springer-Verlag, .
  • (en) J. von Neumann, « Various techniques used in connection with random digits. Monte Carlo methods », Nat. Bureau Standards, vol. 12,‎ , p. 36–38.
  • (en) Luc Devroye, Non-Uniform Random Variate Generation, New York, Springer-Verlag, (lire en ligne), « 2, section 3, p. 40 »
  • (en) Sheldon Ross, A First Course in Probability, 8, , 442-7 p. (lire en ligne)

Articles connexes

modifier