Loi de probabilité marginale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Probabilité (homonymie).

En théorie des probabilités et en statistique, la loi marginale d'un vecteur aléatoire est la loi de probabilité d'une de ses composantes. Autrement dit il est possible de faire un lien entre la loi de probabilité d'une variable aléatoire et celle d'un vecteur contenant cette variable. Par exemple la loi de la variable aléatoire \scriptstyle X_2 est la deuxième loi marginale du vecteur aléatoire \scriptstyle (X_1,X_2,X_3).

Définition[modifier | modifier le code]

Pour obtenir la loi marginale d'un vecteur, on projette la loi sur l'espace unidimensionnel de la coordonnée recherchée. La loi de probabilité de la i-ème coordonnée d'un vecteur aléatoire est appelée la i-ème loi marginale. La loi marginale \scriptstyle \mathbb P_i de \scriptstyle \mathbb P s'obtient par la formule :

\mathbb P_i(A) = \mathbb P_{X_i}(A) = \iint { 1}_{\omega_i\in A} \mathbb P(\mathrm{d}(\omega_1,\dots,\omega_n)) pour tout \scriptstyle A \in \mathcal B(\mathbb R).

Soient \scriptstyle X et \scriptstyle Y deux variables aléatoires de l'espace probabilisé \scriptstyle (\Omega, \, \mathcal E, \, p)\, vers l'espace mesurable \scriptstyle (F, \, \mathcal F) et \scriptstyle B \in \mathcal F.

Les lois de probabilité marginales du vecteur aléatoire \scriptstyle Z = (X, Y) sont les lois de probabilité de \scriptstyle X et de \scriptstyle Y. On traite ici celle de \scriptstyle X (la méthode est la même pour celle de \scriptstyle Y). D'après le théorème des probabilités totales, elle est liée à la loi de probabilité conditionnelle :

\mathbb P_X(B) = \int_\Omega \mathbb P(X^{-1} \langle B \rangle \cap \mathrm d\omega_Y) = \int_F \mathbb P_{(X, Y)}(B, \mathrm dy).

Exemples[modifier | modifier le code]

Lois discrète[modifier | modifier le code]

Si \scriptstyle Y est une variable aléatoire discrète à valeurs dans un ensemble dénombrable \scriptstyle S \subset F, alors :

\mathbb P_X(B) = \sum_{y \in S} \mathbb P_{(X, Y)}(B, \{y\}).

C'est notamment le cas quand \scriptstyle S est fini. En notant \scriptstyle y_1, \, \dots, \, y_n ses valeurs et \scriptstyle \mathbb P_{X, 1}(B), \, \dots, \, \mathbb P_{X, n}(B) les probabilités \scriptstyle \mathbb P_{X, Y}(B, \{y_1\}), \, \dots, \, \mathbb P_{X, Y}(B, \{y_n\}), la loi de probabilité devient :

p_X(B) = \sum_{i = 1}^n p_{X, i}(B).

Loi absolument continue[modifier | modifier le code]

Les lois marginales d'une loi absolument continue s'expriment à l'aide de leurs densités marginales par les formules :

\begin{array}{rl}f_X(x)&= \int_{\mathbb{R}}\ f_Z(x,y)\,dy,\\f_Y(y)&= \int_{\mathbb{R}}\ f_Z(x,y)\,dx\end{array}

\scriptstyle f_Z est les densité de probabilité du vecteur \scriptstyle Z.

De manière plus générale, si \scriptstyle X et \scriptstyle Y sont des variables aléatoires absolument continues, de densité de probabilité conjointe \scriptstyle f_{(X, Y)} par rapport à une mesure \sigma-finie \mu sur \scriptstyle(F, \, \mathcal F), alors :

\mathbb P_X(B) = \int_F \left( \int_B f_{(X, Y)}(x, y) \mu(\mathrm dx) \right) \mu(\mathrm dy).

Notes et références[modifier | modifier le code]

Ouvrages

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Articles connexes[modifier | modifier le code]