Algorithme de Metropolis-Hastings

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Ébauche

En statistique, l'algorithme de Métropolis-Hastings est une méthode MCMC. Étant donnée une distribution de probabilité sur un univers , cet algorithme définit une chaîne de Markov dont la distribution stationnaire est . Il permet ainsi de tirer aléatoirement un élément de selon la loi (on parle d'échantillonnage).

Un point essentiel de l'algorithme de Métropolis-Hasting est qu'il ne nécessite que la connaissance de à une constante multiplicative près. En particulier, il n'est pas nécessaire de calculer la fonction de partition de , tâche souvent difficile.

Pour cette raison, cette méthode est très utilisée en physique statistique.

Historique

La première version de l'algorithme a été initiée dans un article de 1949 par Nicholas Metropolis et Stan Ulam[1] puis décrite quelques années plus tard en 1953 par Nicholas Metropolis, Arianna W. Rosenbluth, Marshall Rosenbluth, Augusta H. Teller, et Edward Teller[2].

Cette première version considérait le cas particulier de la distribution de Boltzmann, une des distributions les plus utilisées en physique statistique. En 1970, W. Keith Hastings (1930-) a étendu l'algorithme au cas de n'importe quelle distribution[3].

Approche intuitive

Nous voulons obtenir des tirages aléatoires d'un vecteur , ayant un grand nombre de dimensions — pour une distribution à une dimension, on utilise d'autres algorithmes plus directs comme la méthode de rejet —, avec une distribution de probabilité . Nous sommes dans le cas où il n'est pas simple de générer directement une suite de vecteurs suivant cette distribution . Par ailleurs, on ne connaît pas nécessairement cette distribution , il suffit de connaître une fonction qui est proportionnelle à .

On part d'une valeur . À partir de cette valeur, on détermine une valeur avec un générateur pseudo-aléatoire utilisant une distribution de probabilité . Dans le cas de l'algorithme original de Metropolis, est symétrique (on prend par exemple une distribution normale centrée sur ) ; Hastings a généralisé cet algorithme à une distribution dissymétrique.

Puis, on calcule le rapport de probabilité entre et  :

Alors :

  • si , on prend
  • si , alors avec probabilité , on prend

Et l'on recommence de manière itérative.

On a donc une chaîne de Markov, puisque l'état de ne dépend que de , et après un « grand nombre » d'itérations, les suivent la distribution .

Cas général

De toutes les familles de méthodes MCMC, la plus générale est sans doute l'algorithme Metropolis-Hastings, dans le sens qu’il impose le moins de conditions sur la densité cible. À partir de la densité cible (possiblement en grandes dimensions), on choisit une densité instrumentale conditionnelle à partir de laquelle il est assez facile de simuler. Commençant avec une valeur (possiblement vectorielle) , l’algorithme passe au travers des étapes suivantes à chaque itération. Sachant que la chaîne est à l’état à la itération,

  • générer
  • Calculer la probabilité d’acceptation
  • prendre

En recommençant ces étapes pour allant de à [4].

Cas symétrique

Un cas particulier courant de l'algorithme est celui où est symétrique (i.e., ). Dans ce cas, l'algorithme se déplace de en

  • avec probabilité si  ;
  • avec probabilité sinon (et reste en avec la probabilité restante).

Voir aussi

Notes et références

Modèle:Références

Modèle:Portail

  1. Modèle:Article.
  2. Modèle:Article.
  3. Modèle:Article.
  4. Vanessa Bergeron Laperrière (Été 2010), (supervisée par Mylène Bédard), L’Algorithme Metropolis-Hastings Projet de recherche CRSNG, Département de Mathématiques et Statistique Université de Montréal.