Espérance conditionnelle

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En théorie des probabilités, l'espérance conditionnelle d'une variable aléatoire réelle est, selon les cas, un nombre ou une nouvelle variable aléatoire.

L'espérance d'une variable aléatoire conditionnée par un événement B est, intuitivement, la moyenne que l'on obtient si on renouvelle un grand nombre de fois l'expérience liée à la variable aléatoire et que l'on ne retient que les cas où l'événement B est réalisé. L'espérance de X conditionnée par B se note \scriptstyle \mathbb E[X|B]. On rencontre ce type d'espérance conditionnelle, par exemple, dans le calcul de l'espérance de vie où l'espérance de vie à la naissance est différente de celle obtenue si on a déjà atteint l'âge de 60 ans.

Si Y est une variable aléatoire discrète, on peut définir l'espérance de X conditionnée par Y. Elle se note \scriptstyle \mathbb E[X|Y]. C'est une nouvelle variable aléatoire définie comme égale à \scriptstyle \varphi (Y)\scriptstyle \varphi est la fonction presque partout définie par :\scriptstyle \varphi(y) = \mathbb E[X|\{Y=y\}].

Cependant la démarche mise en œuvre dans le cas discret ne se généralise pas facilement dans le cas où la variable est conditionnée par une variable aléatoire quelconque ou une sous-tribu. Il existe alors une définition plus formelle de la variable aléatoire \scriptstyle \mathbb E[X|Y] ou \scriptstyle \mathbb E[X|\mathcal{G}].

L'espérance conditionnelle de X sachant Y est la fonction de Y donnant la meilleure approximation de X quand Y est connu. L’espérance conditionnelle est un concept important en probabilités, notamment utilisé dans des domaines tels l'étude des martingales et l'intégration stochastique.

Espérance conditionnée par un événement[modifier | modifier le code]

Soit B un événement de probabilité non nulle, on sait définir la probabilité conditionnelle \mathbb P(.|B) ou \mathbb P_B. Pour tout événement A : \mathbb P(A|B) = \frac{\mathbb P (A \cap B)}{\mathbb P(B)}.

Si X est une variable aléatoire discrète d'espérance finie, on définit l'espérance de X sachant B , notée  \mathbb E[X|B], par[1] : \mathbb E[X|B]= \sum_{x_i}x_i\mathbb P_B(X=x_i)=\frac 1{\mathbb P(B)}\sum_{x_i}x_i\mathbb P(\{X=x_i\} \cap B).

Si X est une variable aléatoire continue, d'espérance finie et de densité f, l'espérance de X sachant B est définie par \mathbb E[X|B]= \frac 1{\mathbb P(B)}\int_{X(B)}xf(x)dx.

De manière plus générale, si X est une variable aléatoire possédant une espérance, l’espérance de X conditionnée par B est[2] \mathbb{E}[X|B]=\frac{1}{\mathbb{P}(B)}\int_B  X d\mathbb{P} = \frac{1}{\mathbb{P}(B)} \mathbb E[X.1_B], 1_B est la fonction indicatrice de B qui est nulle sauf sur B où elle constamment égale à 1.

Comme il existe une formule des probabilités totales, il existe une formule des espérances totales qui s'exprime ainsi[1]: si (Bi ) est une partition de l'univers formée d'événements de probabilité non nulle, alors : E[X]=\sum_i\mathbb P(B_i)\mathbb E[X|B_i].

Espérance conditionnée par une variable[modifier | modifier le code]

Cas discret[modifier | modifier le code]

Soir X une variable aléatoire réelle dont l'espérance est définie et Y une variable aléatoire discrète, pour tout yi tel que l'événement {Y = yi} soit de probabilité non nulle, on peut définir \mathbb E[X|Y=y_i]=\frac{1}{\mathbb P(Y=y_i)} \mathbb E[X.1_{\{y=y_i\}}] On définit ainsi, presque partout, une fonction dite de régression[3], \varphi(y) = \mathbb E[X|Y=y] et une variable aléatoire \varphi(Y) appelée espérance de X conditionnée par Y et noté  \mathbb E[X|Y].

La formule d'espérance totale s'écrit alors[3]: \mathbb E[X]=\sum_i \varphi (y_i)\mathbb P(Y=y_i) = \mathbb E[\varphi(Y)] =\mathbb E[\mathbb E[X|Y]] L'intérêt de cette formule réside dans le fait que qu'il n'est plus nécessaire de connaitre la loi de X pour calculer son espérance et que les lois de X conditionnées par Y suffisent.

La formule d'espérance totale se généralise à tout produit de X par une fonction de Y. Pour tout variable aléatoire f(Y), de la propriété[3] \mathbb E[Xf(Y)|Y]=f(Y) \mathbb E[X|Y], on peut déduire, en posant  Z=\mathbb E[X|Y], les égalités[4]: \mathbb E[Xf(Y)] = E[Zf(Y)] et \mathbb E[X1_A] = E[Z1_A] pour tout A de la tribu σ(Y). Ce sont ces dernières propriétés qui inspirent la définition caractéristique de l'espérance de X conditionnée par une variable aléatoire ou une tribu dans le cas général.

Cas absolument continu[modifier | modifier le code]

Si X et Y sont deux variables aléatoires absolument continues de densité conjointe fX,Y et de densités marginales fX et fY , on peut définir la densité conditionnelle de X conditionnée par {Y=y}, fX/Y(.,y) pour tout y tel que fY(y) est non nul, par : f_{X|Y}(x|y)=\frac{f_{X,Y}(x,y)}{f_Y(y)}. Dans le cas où fY(y) est nul, on peut prendre une densité arbitraire pour fX/Y(.,y)[5].

On appelle espérance conditionnelle de X sachant {Y=y} la valeur : \mathbb E[X|Y=y] = \int_{\mathbb R} x f_{X|Y}(x|y)\mathrm d x = \varphi(y). On appelle espérance de X conditionnée par Y la variable aléatoire \varphi(Y).

Il existe de même une formule de l'espérance totale (ou théorème de l'espérance mathématique conditionnelle) : \mathbb E[X] = \mathbb E[\mathbb E[X|Y]]


Définition générale[modifier | modifier le code]

On se place dans le cas général d'un espace de probabilité \scriptstyle\ (\Omega,\mathcal{F},\mathbb{P}). Soit \scriptstyle\  \mathcal{G} \subset \mathcal{F},\ une sous-tribu, et soit X une variable aléatoire intégrable. Alors il existe une variable aléatoire Z , \scriptstyle\  \mathcal{G}-mesurable et intégrable, telle que, pour toute variable aléatoire U bornée et \scriptstyle\   \mathcal{G}-mesurable,

 \mathbb{E}[XU]\ =\ \mathbb{E}[ZU].

On note alors

Z\ =\ \mathbb{E}[X|\mathcal{G}].

et on appelle espérance de X conditionnellement à \scriptstyle \mathcal G, ou X sachant \scriptstyle \mathcal G, cette variable aléatoire (ce n'est pas un réel). Cette notation est bien définie car si une autre variable aléatoire Y satisfait aussi cette propriété, alors Y = Z presque sûrement.

Cas particuliers:

Cette définition inclut plusieurs définitions données de manières plus immédiates.

  • On peut définir la probabilité conditionnelle d'un événement A par :
\mathbb{P}(A|\mathcal{G}) = \mathbb{E}\left[1_A|\mathcal{G}\right].
Il s'agit d'une variable aléatoire et non d'un réel.
  • On peut également définir l'espérance conditionnellement à une variable aléatoire, par le biais de la tribu engendrée par cette variable aléatoire :
\mathbb{E}\left[X|Y\right]\ =\ \mathbb{E}\left[X|\sigma(Y)\right].
Dans ce cas, il existe une fonction mesurable \varphi:\mathbb{R}\to\mathbb{R} telle que, presque sûrement,
\mathbb{E}\left[X|Y\right]=\varphi(Y).
  • Si A est un événement, par analogie avec la relation \mathbb{P}(A)=\mathbb{E}(1_{A}), on définit la probabilité conditionnelle de A à l'aide de la relation :
\mathbb{P}(A|Y)=\mathbb{E}[1_{A}|Y].
Il s'agit d'une variable aléatoire et non d'un réel.

Interprétation[modifier | modifier le code]

On peut, dans le cas des variables aléatoires de carré intégrable, interpréter l'espérance conditionnelle d'une variable aléatoire X comme la projection orthogonale de X sur l'espace vectoriel des variables aléatoires \scriptstyle\  \mathcal{G}\ -mesurables, et, partant de là, comme la meilleure approximation qu'on puisse donner de la variable X à l'aide d'une variable aléatoire \scriptstyle\  \mathcal{G}\ -mesurable. En effet, l'espérance conditionnelle possède la propriété suivante : pour toute variable aléatoire Y intégrable \scriptstyle\  \mathcal{G}\ -mesurable,

\mathbb{E}\left[(X-Y)^2\right]\ \ge\ \mathbb{E}\left[\left(X-\mathbb{E}\left[X|\mathcal{G}\right]\right)^2\right].

C'est-à-dire que, parmi les variables aléatoires Y intégrables \scriptstyle\  \mathcal{G}\,-mesurables, la plus proche de X (pour la distance induite par le produit scalaire \scriptstyle\ (X,Y)\mapsto \mathbb{E}\left[X\, Y\right]\ ) est \scriptstyle\ Y_0=\mathbb{E}\left[X|\mathcal{G}\right].\

Pour ce qui est des applications, l'espérance conditionnelle pourra alors s'interpréter, par exemple, comme la meilleure prévision possible de la variable aléatoire X, en fonction de l'information disponible à un moment donné, information encodée par la tribu \scriptstyle\  \mathcal{G},\ ou encore comme la meilleure reconstruction du signal original X, après émission, en fonction de la déformation bruitée obtenu à la réception.

Il s'agit en ce sens de l'idée que l'on peut se faire du processus X grâce à l'information \mathcal{G}, non par opposition au cas où l'on ne saurait rien de ce processus (information nulle), mais par rapport au cas où l'on connaitrait parfaitement ce dernier (information infinie). Une information conditionnelle correspond donc bel et bien à une perte d'information !

Propriétés[modifier | modifier le code]

L’espérance conditionnelle possède les propriétés suivantes

  • L’espérance conditionnelle est linéaire :
 \mathbb{E}\left[aX+bY|\mathcal{G}\right]\  =\  a \mathbb{E}\left[X|\mathcal{G}\right] + b \mathbb{E}\left[Y|\mathcal{G}\right]
  • Son espérance vaut :
\mathbb{E}\left[\mathbb{E}\left[X|\mathcal{G}\right]\right]\  =\  \mathbb{E}\left[X\right]
  • Itération : si \scriptstyle\ \mathcal{H} \subset \mathcal{G},
\mathbb{E}\left[\mathbb{E}\left[X|\mathcal{G}\right]|\mathcal{H}\right] = \mathbb{E}\left[X|\mathcal{H}\right]
  • Monotonie : Si \scriptstyle\ X \le Y, alors
\mathbb{E}\left[X|\mathcal{G}\right]\  \le\ \mathbb{E}\left[Y|\mathcal{G}\right]
  • Convergence monotone : si \scriptstyle\ X_n\ge 0\ est une suite croissante de variables aléatoires réelles qui converge presque sûrement vers X, alors
\mathbb{E}\left[X_n|\mathcal{G}\right]\ \underset{n\to\infty}{\longrightarrow}\ \mathbb{E}\left[X|\mathcal{G}\right].
Plus généralement, le théorème de convergence dominée et le lemme de Fatou s'appliquent naturellement aux espérances conditionnelles.
  • Indépendance: si X est indépendant de \scriptstyle\ \mathcal{G}, alors
\mathbb{E}\left[X|\mathcal{G}\right]\ =\ \mathbb{E}\left[X\right]
  • Si Z est \scriptstyle\ \mathcal{G}\,-mesurable, alors
\mathbb{E}\left[XZ|\mathcal{G}\right]\ =\ Z\mathbb{E}\left[X|\mathcal{G}\right]
  • Si X est \scriptstyle\ \mathcal{G}\,-mesurable, alors
\mathbb{E}\left[X|\mathcal{G}\right]\ =\  X
  • Inégalité de Jensen : si \scriptstyle\ \phi\ est une fonction convexe et \scriptstyle\ \phi(X)\ est intégrable, alors
\mathbb{E}\left[\phi(X)|\mathcal{G}\right]\  \ge\ \phi\left(\mathbb{E}\left[X|\mathcal{G}\right]\right])

Articles connexes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. a et b Xavier Chauvet, Formulaire de mathématiques, coll. Les mementos de l'INSEEC, n° 10, p. 30
  2. Anne Philippe et Marie-Claude Viano, Cours de probabilités : Modèles et applications, p.4
  3. a, b et c Gilbert Saporta, Probabilités, analyse des données et statistique, Editions TECHNIP, 2011 p.72
  4. Alain Yger, Jacques-Arthur Weil, Mathématiques appliquées L3, Pearson Education France, 2009, p.744
  5. Dominique Foata, Aimé Fuchs, Jacques Franchi, Calcul des probabilités - 3e édition, Dunod, 2012, pp.145-147