Aller au contenu

Probabilité a priori

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 8 juin 2022 à 09:16 et modifiée en dernier par Graviot (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.

Dans le théorème de Bayes, la probabilité a priori (ou prior[note 1]) désigne une probabilité se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori (ou posterior[note 1]) correspondante qui s'appuie sur les connaissances postérieures à cette observation.

Formalisation

Théorème de Bayes

Le théorème de Bayes s'énonce de la manière suivante :

, si .

désigne ici la probabilité a priori de , tandis que désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de sachant .

Lois

Soit θ un paramètre ou vecteur de paramètres inconnu considéré aléatoire :

  • la loi de la variable aléatoire avant observation est appelée loi a priori, notée généralement [1],[2] ;
  • la loi de la variable aléatoire après observation est appelée loi a posteriori.

Extension du modèle

Soit X une variable aléatoire dont la loi de probabilité associée dépend de , et x l'observation.

Le théorème de Bayes s’énonce alors : .

La probabilité a priori est et la probabilité a posteriori devient .

La loi a priori est toujours et la loi a posteriori est alors la loi de conditionnellement à l'observation de et s'écrit donc [1],[2].

Choix d’une loi de probabilité a priori

Les lois a priori peuvent être créées à l'aide d'un certain nombre de méthodes[3](pp27–41).

  • Une loi a priori peut être déterminée à partir d'informations antérieures, telles que des expériences précédentes.
  • Elle peut être obtenue à partir de l'évaluation purement subjective d'un expert expérimenté.
  • Une loi a priori non informative peut être créée pour refléter un équilibre entre les résultats lorsque aucune information n'est disponible.

Articles connexes

Notes et références

Notes

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Prior probability » (voir la liste des auteurs).
  1. a et b Les mots « prior » et « posterior », d'origine anglaise, signifient « avant » et « après » et sont utilisés pour décrire des concepts de l'inférence bayésienne, ou pour formuler de nouveaux (voir par exemple les œuvres de Judea Pearl ou Introduction to Bayesian Statitics de Karl-Rudolf Koch). Ils sont aussi utilisés en français comme synonymes, par exemple par Sophie Gourgou, Xavier Paoletti, Simone Mathoulin-Pélissier dans Méthodes Biostatistiques appliquées à la recherche clinique en cancérologie ou Bas Van Fraassen, Catherine Chevalley dans Lois et symétrie, p. 59.

Références

  1. a et b Introduction aux Statistiques Bayésiennes. Par Yann Traonmilin et Adrien Richou, Institut de Mathématiques de Bordeaux, PDF, 19 pages
  2. a et b Statistique Bayésienne - Notes de cours. Par Judith Rousseau, ENSAE ParisTech, Troisième année 2009-20010, PDF, 54 pages
  3. Bradley P. Carlin et Thomas A. Louis, Bayesian Methods for Data Analysis, CRC Press, , Third éd. (ISBN 9781584886983)

Bibliographie