Probabilité a priori

probabilité en se fondant sur des données ou connaissances antérieures à toute observation ou expérience

Dans le théorème de Bayes, la probabilité a priori (ou prior[note 1]) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior[note 1]) correspondante qui s'appuie sur les connaissances postérieures à cette observation.

Formalisation

modifier

Théorème de Bayes

modifier

Le théorème de Bayes s'énonce de la manière suivante :

 , si  .

  désigne ici la probabilité a priori de  , tandis que   désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de   sachant  .   est la vraisemblance de A sachant B.

Soit θ un paramètre ou vecteur de paramètres inconnu considéré aléatoire :

  • la loi de la variable aléatoire   avant observation est appelée loi a priori, notée généralement  [1],[2] ;
  • la loi de la variable aléatoire   après observation est appelée loi a posteriori.

Extension du modèle

modifier

Soit X une variable aléatoire dont la loi de probabilité associée dépend de  , et x l'observation.

Le théorème de Bayes s’énonce alors :  .

La probabilité a priori est   et la probabilité a posteriori devient  .

La loi a priori est toujours   et la loi a posteriori est alors la loi de   conditionnellement à l'observation   de   et s'écrit donc  [1],[2].

Choix d’une loi de probabilité a priori

modifier

Les lois a priori peuvent être créées à l'aide d'un certain nombre de méthodes[3](pp27–41).

  • Une loi a priori peut être déterminée à partir d'informations antérieures, telles que des expériences précédentes.
  • Elle peut être obtenue à partir de l'évaluation purement subjective d'un expert expérimenté.
  • Une loi a priori non informative peut être créée pour refléter un équilibre entre les résultats lorsque aucune information n'est disponible.

Articles connexes

modifier

Notes et références

modifier
(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Prior probability » (voir la liste des auteurs).
  1. a et b Les mots « prior » et « posterior », d'origine anglaise, signifient « avant » et « après » et sont utilisés pour décrire des concepts de l'inférence bayésienne, ou pour formuler de nouveaux (voir par exemple les œuvres de Judea Pearl ou Introduction to Bayesian Statitics de Karl-Rudolf Koch). Ils sont aussi utilisés en français comme synonymes, par exemple par Sophie Gourgou, Xavier Paoletti, Simone Mathoulin-Pélissier dans Méthodes Biostatistiques appliquées à la recherche clinique en cancérologie ou Bas Van Fraassen, Catherine Chevalley dans Lois et symétrie, p. 59.

Références

modifier
  1. a et b Introduction aux Statistiques Bayésiennes. Par Yann Traonmilin et Adrien Richou, Institut de Mathématiques de Bordeaux, PDF, 19 pages
  2. a et b Statistique Bayésienne - Notes de cours. Par Judith Rousseau, ENSAE ParisTech, Troisième année 2009-20010, PDF, 54 pages
  3. Bradley P. Carlin et Thomas A. Louis, Bayesian Methods for Data Analysis, CRC Press, , Third éd. (ISBN 9781584886983)

Bibliographie

modifier