Monte Carlo Hamiltonien

En physique computationnelle et en statistiques, l' algorithme de Monte Carlo hamiltonien (également connu sous le nom de Monte Carlo hybride), est une méthode de Monte Carlo par chaîne de Markov dont l'objectif est d'obtenir une séquence d'échantillons aléatoires qui convergent selon une distribution de probabilité cible, typiquement difficile à échantillonner directement. Cette séquence peut notamment être utilisée pour estimer des intégrales par rapport à une distribution cible (calcul d'espérances mathématiques).

Le Monte Carlo hamiltonien correspond à une instance de l'algorithme de Metropolis – Hastings où les déplacements proposés dans l'espace d'états sont issus d'un processus gouverné par une dynamique hamiltonienne[1],[2]et simulée à l'aide d'un intégrateur numérique réversible et préservant le volume (généralement la méthode saute-mouton).

Comparé à l'utilisation d'une distribution de proposition de marche aléatoire gaussienne dans l'algorithme Metropolis – Hastings, la méthode de Monte Carlo Hamiltonien réduit la corrélation entre les états échantillonnés successivement en proposant des déplacements vers des états distants qui maintiennent une forte probabilité d'acceptation en raison des propriétés de conservation d'énergie approximatives de la dynamique hamiltonienne simulée avec de l'utilisation d'un intégrateur symplectique . La corrélation réduite signifie que moins d'échantillons de chaîne de Markov sont nécessaires pour approcher les intégrales par rapport à la distribution de probabilité cible pour une erreur de Monte Carlo donnée. L'algorithme a été proposé à l'origine par Simon Duane, Anthony Kennedy, Brian Pendleton et Duncan Roweth en 1987 [3] pour des calculs en chromodynamique quantique sur un réseau .

Algorithme

modifier

Supposons que la distribution cible à échantillonner soit   et qu'une chaîne d'échantillons   soit requise. Les équations de la mécanique hamiltonienne se lisent

 

et

 

  et   sont les   ème composante du vecteur position et impulsion respectivement et où le hamiltonien   est de la forme

 

  est l' énergie potentielle et   est une matrice symétrique et définie positive. Dans le but d'échantilloner d'une mesure cible  , l'énergie potentielle est typiquement donnée par

 


Supposons qu'après   étapes, la chaîne soit dans l'état  et introduisons   . L'algorithme consiste à proposer un nouvel état  , où   est une approximation numérique de la dynamique hamiltonienne par la méthode saute-mouton avec   comme pas de discrétisation et où   est un entier positif décrivant le nombre de pas à simuler à chaque étape. Le nouvel état proposé   est ensuite accepté ou rejeté selon la règle de l'algorithme de Metropolis – Hastings.


Plus formellement, soit   et soit   tiré de la loi gaussienne   de moyenne   et de matrice de covariance  . La méthode saute-mouton consiste à faire évoluer les vecteurs position   et impulsion   après le temps   de la façon suivante.

 
 
 

Ces équations doivent être appliquées à   et   à   reprises afin d'obtenir   et   .

Comme la méthode saute-mouton est une méthode numérique et ne résout pas exactement les équations de la mécanique hamiltonienne, une étape Metropolis – Hastings est utilisée en complément. La transition de   à   est donnée par

 

 

Cette opération est ensuite répétée afin d'obtenir   .

Voir aussi

modifier

Articles connexes

modifier

Bibliographie

modifier

Liens externes

modifier

Notes et références

modifier
  1. Buchholz, Alexander, « High dimensional Bayesian computation, Section 1.2 échantillonnage Monte Carlo », these.fr,‎
  2. (en) Radford Neal, « MCMC Using Hamiltonian Dynamics », dans Handbook of Markov Chain Monte Carlo, vol. 20116022, Chapman and Hall/CRC, (ISBN 978-1-4200-7941-8, DOI 10.1201/b10905-6, lire en ligne)
  3. Duane, Kennedy, Anthony D., Pendleton, Brian J. et Roweth, Duncan, « Hybrid Monte Carlo », Physics Letters B, vol. 195, no 2,‎ , p. 216–222 (DOI 10.1016/0370-2693(87)91197-X, Bibcode 1987PhLB..195..216D)