Probabilité conditionnelle

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Probabilité (homonymie).

La notion de probabilité conditionnelle permet de tenir compte dans une prévision d'une information complémentaire. Par exemple, si je tire au hasard une carte d'un jeu, j'estime naturellement à une chance sur quatre la probabilité d'obtenir un cœur ; mais si j'aperçois un reflet rouge sur la table, je corrige mon estimation à une chance sur deux. Cette seconde estimation correspond à la probabilité d'obtenir un cœur sachant que la carte est rouge. Elle est conditionnée par la couleur de la carte ; donc, conditionnelle.

La pratique n'est cependant pas toujours aisée, comme le montrent certains paradoxes tels que le paradoxe des deux enfants, le paradoxe des deux enveloppes, le paradoxe des trois pièces de monnaie et le paradoxe des prisonniers. D'où la nécessité d'une définition rigoureuse.

Définition[modifier | modifier le code]

En théorie des probabilités, la probabilité conditionnelle d'un événement A, sachant qu'un autre événement B de probabilité non nulle s'est réalisé (ou probabilité de A, sachant B) est le nombre noté \mathbb{P}(A|B) défini par :

\mathbb{P}(A|B) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}.

Le réel \mathbb{P}(A|B) se lit « probabilité de A, sachant B ». \mathbb{P}(A|B) se note aussi parfois \mathbb{P}_B(A).

Mathématiquement, soient \left(\Omega, \mathcal B, \mathbb{P}\right), un espace probabilisé et B un événement de probabilité non nulle. À tout événement A de \mathcal B, nous associons le nombre noté \mathbb{P}(A|B) ou \mathbb{P}_B(A) défini par:

\mathbb{P}_B(A) = \frac{\mathbb{P}(A \cap B)}{\mathbb{P}(B)}.

Nous pourrions vérifier que l'application \mathbb{P}_B définie par A\mapsto \mathbb{P}_B(A) est une probabilité.

Si A et B sont indépendants alors:

\mathbb{P}(A|B) = \mathbb{P}(A).

D'autre part, on peut noter que le théorème de Bayes permet d'écrire

\mathbb{P}(A|B) = \frac{\mathbb{P}(B|A)\mathbb{P}(A)}{\mathbb{P}(B)}.

Ce qui, en cas d'indépendance des événements A et B, se vérifie par:  \mathbb{P}(A)=\mathbb{P}(B). \frac{\mathbb{P}(A)}{\mathbb{P}(B)} , ce qui est vrai.

Espérance conditionnelle[modifier | modifier le code]

Article détaillé : Espérance conditionnelle.

Soit \left(\Omega, \mathcal B, \mathbb{P}\right) un espace probabilisé, X une variable aléatoire réelle intégrable et B un évènement. On appelle espérance conditionnelle:


\mathbb{E}(X|B)=\frac{1}{\mathbb{P}(B)}\int_B  X d\mathbb{P}

\mathbb{E}(X|B) est l'espérance de X sachant que B s'est réalisé.

Densité conditionnelle[modifier | modifier le code]

Soit \left(\Omega, \mathcal B, \mathbb{P}\right), et soient X et Y deux variables aléatoires définies sur cet espace. Si l'on suppose que leur loi jointe peut être définie par une densité bivariable f(x,y) , et si de plus un y_0 vérifie \int f(x,y_0) dx \neq 0 , alors il existe une loi absolument continue dont la densité est donnée par l'expression

g(x|y_0)= \frac{ f(x,y_0) }{\int f(x,y_0) dx }


Cette fonction g(x|y_0) est appelée : densité conditionnelle de X sachant Y=y_0. Intuitivement, cette expression peut être interprétée comme une formulation continue du théorème de Bayes.


Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Articles connexes[modifier | modifier le code]