« Probabilité a priori » : différence entre les versions

Un article de Wikipédia, l'encyclopédie libre.
Contenu supprimé Contenu ajouté
Adyarel (discuter | contributions)
m Mise en forme
SitetiS (discuter | contributions)
m imprécision
Ligne 1 : Ligne 1 :
{{Style non encyclopédique|date=juillet 2021}}
{{Style non encyclopédique|date=juillet 2021}}
Dans le [[théorème de Bayes]], la '''probabilité ''a priori''''' désigne la [[probabilité]] en se fondant sur des données ou connaissances antérieures à une observation.
Dans le [[théorème de Bayes]], la '''probabilité ''a priori''''' désigne une [[probabilité]] en se fondant sur des données ou connaissances antérieures à une observation.
Elle s'oppose à la [[probabilité a posteriori]] correspondante qui s'appuie sur les connaissances postérieures à cette observation.
Elle s'oppose à la [[probabilité a posteriori]] correspondante qui s'appuie sur les connaissances postérieures à cette observation.



Version du 27 décembre 2021 à 17:32

Dans le théorème de Bayes, la probabilité a priori désigne une probabilité en se fondant sur des données ou connaissances antérieures à une observation. Elle s'oppose à la probabilité a posteriori correspondante qui s'appuie sur les connaissances postérieures à cette observation.

Formalisation

Probabilité a priori / Probabilité a posteriori

Le théorème de Bayes s'énonce :

P(A) désigne ici la probabilité a priori de A.

Tandis que P(A|B) désigne la probabilité a posteriori, c'est-à-dire la probabilité conditionnelle de A sachant B.

Loi a priori / Loi a posteriori

Soit θ un paramètre ou vecteur de paramètres inconnu considéré aléatoire :

La loi de la variable aléatoire θ, avant observation est appelée loi a priori, notée généralement π(θ)[1],[2]

La loi de la variable aléatoire θ, après observation est appelée loi a posteriori.

Extension du modèle

Soit X une variable aléatoire dont la loi de probabilité associée dépend de θ et x l'observation :

Le théorème de Bayes s’énonce alors : P(θ|x) = P(x|θ) . P(θ) / P(x) .

La probabilité a priori est P(θ) et la probabilité a posteriori devient P(θ|x).

La loi a priori est toujours π(θ) et la loi a posteriori est alors la loi de θ conditionnellement à l'observation x de X et s'écrit donc π(θ|x)[1],[2].

Choix d’une distribution de probabilité a priori

Les distributions a priori peuvent être créées à l'aide d'un certain nombre de méthodes [3](pp27–41).

  • Une distribution a priori peut être déterminée à partir d'informations antérieures, telles que des expériences précédentes.
  • Elle peut être obtenue à partir de l'évaluation purement subjective d'un expert expérimenté.
  • Une distribution a priori non informative peut être créée pour refléter un équilibre entre les résultats lorsque aucune information n'est disponible.

Articles connexes

Notes et références

Notes

(en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Prior probability » (voir la liste des auteurs).

Références

  1. a et b Introduction aux Statistiques Bayésiennes. Par Yann Traonmilin et Adrien Richou, Institut de Mathématiques de Bordeaux, PDF, 19 pages
  2. a et b Statistique Bayésienne - Notes de cours. Par Judith Rousseau, ENSAE ParisTech, Troisième année 2009-20010, PDF, 54 pages
  3. Bradley P. Carlin et Thomas A. Louis, Bayesian Methods for Data Analysis, CRC Press, , Third éd. (ISBN 9781584886983)

Bibliographie