Densité de probabilité

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Densité (homonymie) et Probabilité (homonymie).

En théorie des probabilités ou en statistiques, une densité de probabilité est une fonction qui permet de représenter une loi de probabilité sous forme d'intégrales.

Formellement, une loi de probabilité possède une densité ƒ, si ƒ est une fonction définie sur \ \scriptstyle\mathbb{R},\ positive ou nulle et intégrable, telle que la probabilité de l'intervalle [a, b] est donnée par

\int_a^b f(x)\,dx

pour tous nombres a<b. Par exemple, si la variable X a pour densité de probabilité la fonction ƒ, la probabilité que la variable X soit dans l'intervalle [4,3; 7,8] sera

\mathbb{P}(4{,}3 \leq X \leq 7{,}8) = \int_{4{,}3}^{7{,}8} f(x)\,dx.

Cela implique que l'intégrale de ƒ sur tout \ \mathbb{R}\ donne 1. Réciproquement, pour toute fonction ƒ positive ou nulle et intégrable, d'intégrale égale à 1 :

\left\{f(x) \geq 0\quad \forall x\right\}\quad \textrm{et}\quad\left\{ \int_{-\infty}^\infty \,f(x)\,dx = 1\right\},

il existe une loi de probabilité ayant ƒ pour densité de probabilité.

Intuitivement, si une loi de probabilité a pour densité ƒ, alors l'intervalle infinitésimal [x, x + dx] a pour probabilité ƒ(x) dx.

Informellement, une densité de probabilité peut être vue comme la limite d'un histogramme : si on dispose d'un échantillon suffisamment important de valeurs d'une variable aléatoire à densité, représenté par un histogramme des fréquences relatives des différentes classes de valeurs, alors cet histogramme va ressembler à la densité de probabilité de la variable aléatoire, pourvu que les classes de valeurs soient suffisamment étroites.

Densité de probabilité d'une variable aléatoire réelle[modifier | modifier le code]

Lien entre la densité, f et la fonction de répartition (haut), et, plus généralement, les probabilités (bas).

Définition — En théorie des probabilités ou en statistiques, on dit qu'une fonction \,f\ est une densité de probabilité d'une variable aléatoire réelle \,X\ si, pour tout réel \,x,

\mathbb{P}(X\le x)= \int_{-\infty}^{x} f(u)\,\mathrm du.

La probabilité \,\mathbb{P}(a < X \le b)\ se calcule alors par la relation suivante :

\mathbb{P}\left( a < X \le b \right)=\int_a^b f(u)\,\mathrm du.

En traçant la représentation graphique de la densité de probabilité, la probabilité \,\mathbb{P}(a < X \le b)\ se lit comme l'aire sous la courbe sur l'intervalle \,[a , b].

En conséquence, la fonction de répartition \,F_X\ de \,X\ est continue, et \,\mathbb{P}(X=a) = 0, pour tout nombre réel \,a. En cela, le comportement d'une variable à densité est très différent de celui d'une variable discrète.

Article détaillé : Loi de probabilité.

Définition informelle de la densité de probabilité[modifier | modifier le code]

La définition qui suit est une reformulation de la définition intégrale proposée en début d'article. C'est la définition utilisée en général par les physiciens, en particulier ceux issus du domaine de la physique statistique.

Si \,dt\ est un nombre réel positif infiniment petit, alors la probabilité que \,X\ soit inclus dans l'intervalle \,[t,t+dt]\ est égale à \,f\left(t\right)\,\mathrm dt, soit:

\mathbb{P}\left(t < X < t+ \mathrm dt \right)= f\left(t\right)\, \mathrm dt.

Cette « définition » est très utile pour comprendre intuitivement à quoi correspond une densité de probabilité, et est correcte dans beaucoup de cas importants. On peut tracer une analogie avec la notion de densité de masse, ou encore avec la notion de densité de population. Une formulation plus mathématique serait

\mathbb{P}\left(t < X < t+ h \right)= f\left(t\right)\,h+o(h),

ce qui permet de comprendre en quoi la définition donnée en physique n'est pas complètement rigoureuse :

\mathbb{P}\left(t < X < t+ h \right)= \int_t^{t+h}\ f\left(u\right)\,\mathrm du,

et il est alors facile de vérifier que si \,f\ possède une limite à droite en \,t\ , notons-la \,f(t_+), on a alors

\int_t^{t+h}\ f\left(u\right)\,du = f\left(t_+\right)\,h+o(h),

ce qui corrobore la définition physique lorsque \,f\ est continue à droite en \,t, mais la met en défaut quand \,f(t)\neq f(t_+). Bien sûr, les densités de probabilités usuelles sont continues à droite sauf éventuellement en un nombre fini (et en un petit nombre) de points.

Notons que ce genre d'interprétation infinitésimale (ou issue de la physique) s'étend aux dimensions \,d\ge 2, voir la section suivante.

Densité de la médiane de 9 variables i.i.d.  :

Soit \,(X_i)_{1\le i\le 9}\ une suite de 9 v.a. r. i.i.d. de même densité \,f, et de même fonction de répartition \,F. Notons \,M\ la médiane de cette suite. Alors :

\mathbb{P}\left(t < M < t+ dt \right)=\mathbb{P}\left(\text{parmi les 9 v.a.r., 4 exactement sont}\le t\text{ et 4 sont}\ge t+dt\right).

On peut voir cela comme une suite de 9 expériences aléatoires indépendantes faites dans les mêmes conditions, avec à chaque fois 3 issues : "\,X_i\le t\ ", "\,t<X_i<t+dt\ " et "\,t+dt\le X_i\ ", de probabilités respectives \,F(t), \,f(t)dt\ et \,1-F(t+dt), donc la probabilité ci-dessus est donnée par la loi multinomiale de paramètres 3, 9 et \,\left(F(t),\ f(t)dt,\ 1-F(t+dt)\right). Ainsi :

\mathbb{P}\left(t < M < t+ dt \right)={9\choose 4,1,4}F(t)^4\left(f(t)dt\right)^1\left(1-F(t+dt)\right)^4,

et la densité de \,M\ est

{f}_{M}(t)={9\choose 4,1,4}F(t)^4\left(1-F(t)\right)^4f(t)=630\,F(t)^4\left(1-F(t)\right)^4f(t).

Cette méthode est détaillée dans le livre de David[1]. Un résultat plus général se trouve dans Statistique d'ordre.

Critères d'existence d'une densité[modifier | modifier le code]

En vertu d'un théorème dû à Lebesgue[2], la fonction de répartition d'une variable aléatoire réelle \,X, étant croissante, est dérivable presque partout sur \,\mathbb{R},\ et la dérivée ainsi obtenue est positive et intégrable sur \,\mathbb{R},\ d'intégrale inférieure ou égale à 1.

Critère 1 — \,X\ possède une densité de probabilité si et seulement si l'intégrale, sur \,\mathbb{R},\ de la dérivée de la fonction de répartition est exactement égale à 1. Cette dérivée est alors une des densités de probabilité de \,X.

Critère 2 — Si la fonction de répartition de \,X\ est de classe \,\mathcal{C}^1 par morceaux sur \,\mathbb{R} et est, d'autre part, continue sur \,\mathbb{R},\ alors la dérivée de la fonction de répartition de \,X\ est une des densités de probabilité de \,X.

Densité de la médiane de 9 variables i.i.d. (bis)  :

Pour le calcul de la densité de la médiane de 9 variables i.i.d., une solution plus rigoureuse que celle de la section précédente, mais plus lourde, est de calculer la fonction de répartition de la médiane, puis de la dériver. On reconnait un schéma de Bernoulli : le nombre d'indices \,i\ tels que \,\{X_i\le t\}\ suit une loi binomiale de paramètres 9 et \,F(t).


\begin{array}{rl}
\mathbb{P}\left(M\le t\right) &= F_{M}(t) = \mathbb{P}\left(\text{au moins 5 des 9 }X_i\text{ sont }\le t\right) \\
&=\sum_{j=5}^9{9 \choose j}F(t)^j(1-F(t))^{9-j}.
\end{array}

En dérivant, on trouve :


\begin{array}{rl}
f_{M}(t) & {} ={dF_{M} \over dt}(t)\\
& {} =\sum_{j=5}^9{9 \choose j}\left(jF(t)^{j-1}f(t)(1-F(t))^{9-j}
+F(t)^j (9-j)(1-F(t))^{9-j-1}(-f(t))\right)
\end{array}

Après quelques manipulations sur les coefficients binomiaux, tous les termes de cette somme se télescopent, sauf une partie du premier terme, ce qui donne :


f_{M}(t) = {9! \over 4!4!} F(t)^{4} (1-F(t))^{4} f(t)\ =\ {9 \choose 4,1,4}F(t)^{4} (1-F(t))^{4} f(t),

puis


\int_{\mathbb R}F(t)^{4} (1-F(t))^{4} f(t)dt
=
\int_{0}^1 x^{4} (1-x)^{4}dx
=
\frac{\Gamma(5)^2}{\Gamma(10)}
=
\frac{4!4!}{9!}.

Pour les deux dernières égalités, se référer aux pages sur la fonction bêta et sur la fonction gamma. Il en découle que \,{f}_{M}\ satisfait le critère 1. CQFD

On pourra consulter le livre de David[1] (pages 8-13) pour plus de détails.

Espérance, variance et moments d'une variable aléatoire réelle à densité[modifier | modifier le code]

Soit \scriptstyle X une variable aléatoire réelle ayant une densité de probabilité \,f\ . D'après le théorème de transfert, \scriptstyle X possède un moment d'ordre \scriptstyle k si et seulement si l'intégrale

\int_{-\infty}^\infty~|t|^k\,f(t)~\mathrm dt

est finie. On a dans ce cas

\mathbb E\left[X^k\right]=\int_{-\infty}^\infty~t^k\,f(t)~\mathrm dt.

En particulier, lorsque le moment d'ordre 2 existe :

\mathbb E\left[X\right]=\int_{-\infty}^\infty~t\,f(t)~\mathrm dt,
\mathbb E\left[X^2\right]=\int_{-\infty}^\infty~t^2\,f(t)~\mathrm dt,

et, d'après le théorème de König-Huyghens,

V\left(X\right)=\int_{-\infty}^\infty~t^2\,f(t)~\mathrm dt-\left(\int_{-\infty}^\infty~t\,f(t)~\mathrm dt\right)^2.

Densité de probabilité d'un vecteur aléatoire[modifier | modifier le code]

Définition — On appelle densité de probabilité d'une variable aléatoire \,X\ à valeur dans \,\mathbb{R}^d une fonction \,f\ telle que pour toute partie borélienne \,A\subset \mathbb{R}^d,

\mathbb{P}(X\in A)= \int_{\mathbb{R}^d}\ 1_A(u)\,f(u)\,du= \int_{A}\ f(u)\,du.

Cette définition est en particulier valable pour \,d=1, et est donc équivalente à la première définition, dans le cas particulier \,d=1. Il existe une définition (équivalente) en termes d'espérance mathématique :

Théorème —  Soit une variable aléatoire \,X\ à valeur dans \,\mathbb{R}^d, de densité \,f, et soit \,\varphi\ une fonction borélienne de \,\mathbb{R}^d\ dans \,\mathbb{R}. Alors, dès qu'un des deux termes de l'égalite suivante

\mathbb{E}\left[\varphi(X)\right]=\int_{\mathbb{R}^d}\ \varphi(u)\,f(u)\,du

a un sens, alors l'autre aussi, et l'égalité a lieu. Réciproquement, si l'égalité ci-dessus a lieu pour tout \,\varphi\ borélien borné, alors \,f\ est une densité de \,X.

Si une fonction \,f\ est la densité de probabilité d'une variable aléatoire à valeur dans \,\mathbb{R}^d, cette fonction vérifie les propriétés suivantes

Réciproquement, si une fonction \,f\ vérifie les 3 propriétés ci-dessus, on peut construire une variable aléatoire \,X\ à valeur dans \,\mathbb{R}^d ayant \,f\ pour densité de probabilité. Les variables aléatoires qui possèdent une densité de probabilité sont appelées parfois variables à densité, parfois variables continues.

Loi sans densité[modifier | modifier le code]

Il existe des variables aléatoires, réelles ou bien à valeurs dans \,\mathbb{R}^d, qui ne possèdent pas de densité de probabilité, par exemple les variables aléatoires discrètes. Il y a aussi des lois diffuses (i.e. dont la fonction de répartition est continue) et qui n'admettent pas de densité, par exemple la loi dont la fonction de répartition est l'escalier de Cantor, loi qui est portée par l'ensemble de Cantor.

Existence[modifier | modifier le code]

En vertu du théorème de Radon-Nikodym, le vecteur aléatoire \,Z\ possède une densité si et seulement si, pour chaque borélien \,A\ de \,\mathbb{R}^d\ dont la mesure de Lebesgue est nulle, on a

\mathbb{P}\left(Z\in A\right)=0.

Ce critère est rarement employé dans la pratique pour démontrer que \,Z\ possède une densité, mais il est en revanche utile pour démontrer que certaines probabilités sont nulles. Par exemple, si le vecteur aléatoire \,Z=(X,Y)\ possède une densité, alors

  • \mathbb{P}\left(X=Y\right)=0 ,
  • \mathbb{P}\left(X^2+Y^2-1=0\right)=0 ,

ou bien encore, plus généralement,

  • \mathbb{P}\left(Y=\varphi(X)\right)=0 ,
  • \mathbb{P}\left(\psi(X,Y)=0\right)=0 ,

pour des fonctions \,\varphi\ et \,\psi\ suffisamment régulières[3], parce que la mesure de Lebesgue (c'est-à-dire la surface) de la 1re bissectrice (resp. du cercle unité, du graphe de la fonction \,\varphi, ou de la courbe d'équation \,\psi=0) sont nulles.

Le critère de Radon-Nikodym peut aussi être utilisé pour démontrer qu'un vecteur aléatoire ne possède pas de densité : par exemple, si

Z=\left(\cos \Theta, \sin \Theta\right),

\,\Theta\ désigne une variable aléatoire à valeur dans \,[0,2\pi]\ (par exemple, si \,Z\ est tiré au hasard uniformément sur le cercle unité, c'est-à-dire si \,\Theta\ suit la loi uniforme sur \,[0,2\pi]\ ), alors \,Z\ ne possède pas de densité car

\mathbb{P}\left(X^2+Y^2=1\right)=1.

Cas des variables aléatoires réelles à densité[modifier | modifier le code]

En spécialisant à d=1, on note que, parmi les boréliens \,A\ de \,\mathbb{R}\ dont la mesure de Lebesgue est nulle, figurent en particulier les parties finies de \,\mathbb{R}.\ Donc une variable aléatoire réelle X à densité vérifie, en particulier :

\mathbb{P}\left(X=x\right)=0,

pour tout nombre réel x, et, par conséquent,

\mathbb{P}\left(a\le X\le b\right)=\mathbb{P}\left(a\le X<b\right)=\mathbb{P}\left(a<X\le b\right)=\mathbb{P}\left(a<X<b\right).

Il suit que les variables aléatoires réelles à densité ont nécessairement une fonction de répartition continue sur \,\mathbb{R}.\ La continuité de la fonction de répartition n'est pas, toutefois, une propriété caractéristique des variables aléatoires réelles à densité, comme le montre l'exemple de l'escalier de Cantor.

Non-unicité de la densité de probabilité[modifier | modifier le code]

Si \,f\ et \,g\ sont deux densités de probabilités de la même variable aléatoire \,X, alors \,f\ et \,g\ sont égales presque partout. Réciproquement, si g est presque partout égale à une densité de probabilité de \,X, alors g est une densité de probabilité de \,X. Ainsi une variable aléatoire à densité possède-t-elle toujours une infinité de densités de probabilité : par exemple, en perturbant l'une des densités de \,X\ de manière arbitraire en un nombre fini de points, on obtient encore une densité de \,X.

Densité jointe de plusieurs variables aléatoires réelles[modifier | modifier le code]

La fonction \,g\ définie de \,\mathbb{R}^d\ dans \,\mathbb{R}\ est une densité jointe de la suite de variables aléatoires réelles \,\left(Z_1,Z_2,\dots,Z_d\right)\ si \,g\ est une densité de probabilité du vecteur aléatoire \,Z\ à valeurs dans \,\mathbb{R}^d, défini par

Z=\left(Z_1,Z_2,\dots,Z_d\right).

On peut alors calculer la probabilité d'événements concernant les variables aléatoires réelles \,\left(Z_1,Z_2,\dots,Z_d\right)\ de la manière suivante :

Exemple  :

Si \,d=2, \,\mathbb{P}(Z_2\le Z_1)\ s'écrit \,\mathbb{P}(Z\in A),\,A\ désigne le demi-plan sous la première bissectrice \,A=\{(x,y)\in\mathbb{R}^2\,|\,y\le x\}. On a alors, par définition de la densité,

\begin{array}{rl}
\mathbb{P}(Z_2\le Z_1)
&=
\int_A\,g(z_1,z_2)dz_1\,dz_2,
\\
&=
\int_{\mathbb{R}^2}\,1_A(z_1,z_2)g(z_1,z_2)dz_1\,dz_2,
\\
&=
\int_{\mathbb{R}^2}\,1_{z_2\le z_1}g(z_1,z_2)dz_1\,dz_2.
\end{array}

Si par exemple \,Z_1\ et \,Z_2\ sont indépendants et ont même densité de probabilité \,f, alors une densité de \,Z\ est \,g=f\otimes f\ , c'est-à-dire une densité de \,Z\ est \,g\ défini par \,g(z_1,z_2)=f(z_1)f(z_2)\ . En ce cas,

\begin{array}{rl}
\mathbb{P}(Z_2\le Z_1)
&=
\int_{\mathbb{R}^2}\,1_{z_2\le z_1}f(z_1)f(z_2)dz_1\,dz_2,
\\
&=
\int_{\mathbb{R}}\,\left(\int_{-\infty}^{z_1}f(z_2)\,dz_2\right)f(z_1)dz_1,
\\
&=
\int_{\mathbb{R}}F(z_1)f(z_1)dz_1
\\
&=
\frac12\left[F^2\right]_{-\infty}^{+\infty}=\frac12.
\end{array}

Si par contre \,Z_2=Z_1\ p.s., le vecteur \,(Z_1,Z_2)\ a les mêmes lois marginales (\,Z_1\ et \,Z_2\ ont \,f\ pour densité de probabilité), mais n'a pas la même loi jointe, puisqu'alors \,\mathbb{P}(Z_2\le Z_1)=1. Ainsi la donnée des densités marginales de \,Z_1\ et \,Z_2, seules, ne permet pas de calculer la probabilité d'événements faisant intervenir à la fois \,Z_1\ et \,Z_2, comme par exemple l'évènement \,\{Z_2\le Z_1\}. Pour effectuer le calcul, on utilise ordinairement la loi jointe de \,Z_1\ et \,Z_2, définie dans le cas ci-dessus par leur densité jointe.

Densité marginale[modifier | modifier le code]

Soit \,Z\ un vecteur aléatoire à valeurs dans \,\mathbb{R}^2\ de densité \,f_Z\ et pour \,\omega\in\Omega, soit \,X(\omega)\ et \,Y(\omega)\ les deux coordonnées de \,Z(\omega)\ . On notera

\ Z=(X,Y).

Alors

Propriété — Les variables aléatoires réelles \,X\ et \,Y\ possèdent toutes deux des densités, notons les \,f_X\ et \,f_Y\ , et ces densités sont données par

\begin{array}{rl}f_X(x)&= \int_{\mathbb{R}}\ f_Z(x,y)\,dy,\\f_Y(y)&= \int_{\mathbb{R}}\ f_Z(x,y)\,dx.\end{array}

Les densités de probabilités \,f_X\ et \,f_Y\ sont appelées les densités marginales de \,f_Z.

Plus généralement, si \,f\ définie de \,\mathbb{R}^d\ dans \,\mathbb{R}\ est une densité jointe de :

Z=\left(Z_1,Z_2,\dots,Z_d\right),

on peut calculer une densité \,g\ de (par exemple) \,Y=\left(Z_2,Z_5,Z_6\right)\ de la manière suivante (si \,d=8, par exemple) :


g(x_2,x_5,x_6)
=
\int_{\mathbb{R}^5}\ f(x_1,x_2,\dots,x_8)\,dx_1dx_3dx_4dx_7dx_8,

c'est-à-dire en intégrant par rapport à toutes les coordonnées qui ne figurent pas dans le triplet \,Y. La fonction \,g\ est elle aussi appelée « densité marginale » ou « marginale » de \,f. Une formulation générale serait lourde. La démonstration générale est calquée sur la démonstration de la propriété ci-dessus.

Densité de la médiane de 9 variables i.i.d. (ter)  :

La densité jointe des 9 statistiques d'ordre[4], notées ici \,(Z_i)_{1\le i\le 9}, de l'échantillon \,(X_i)_{1\le i\le 9}, est donnée par :

g(z)= 9!\ \prod_{i=1}^9 f(z_i)\ 1_{z_1<z_2<z_3<\dots<z_9}.

Par définition des statistiques d'ordre, la médiane \,M\ est aussi la 5e statistique d'ordre, \,Z_5. On a donc :

{f}_{M}(z_5)=\int_{\mathbb{R}^8}g(z)dz_1dz_2dz_3dz_4dz_6dz_7dz_8dz_9.

Ainsi, de proche en proche,


\begin{array}{rl}
\int_{\mathbb{R}}g(z)dz_1
&=
9!\ F(z_2)\ \prod_{i=2}^9 f(z_i)\ 1_{z_2<z_3<\dots<z_9},
\\
\int_{\mathbb{R}^2}g(z)dz_1\,dz_2
&=
\frac{9!}{2!}\ F(z_3)^2\ \prod_{i=3}^9 f(z_i)\ 1_{z_3<\dots<z_9},
\\
\int_{\mathbb{R}^4}g(z)dz_1\,dz_2\,dz_3\,dz_4
&=
\frac{9!}{4!}\ F(z_5)^4\ \prod_{i=5}^9 f(z_i)\ 1_{z_5<\dots<z_9},
\\
\int_{\mathbb{R}^4}g(z)dz_1\,dz_2\,dz_3\,dz_4\,dz_9
&=
\frac{9!}{4!1!}\ F(z_5)^4\ \left(1-F(z_8)\right)\ \prod_{i=5}^8 f(z_i)\ 1_{z_5<\dots<z_8},
\\
&\dots
\\
{f}_{M}(z_5)
&=
\frac{9!}{4!4!}F(z_5)^4\left(1-F(z_5)\right)^4f(z_5).
\end{array}

Indépendance des variables aléatoires à densité[modifier | modifier le code]

Soit une suite \,X=(X_1, X_2, \dots,X_n) de variables aléatoires réelles définies sur le même espace de probabilité \,(\Omega, \mathcal{A}, \mathbb{P}).\

Théorème — 

  • Si \,X\ possède une densité de probabilité \,f:\R^n\rightarrow [0,+\infty[\ qui s'écrit sous forme « produit » :
\forall x=(x_1,\dots,x_n)\in\R^n,\qquad f(x)\ =\  \prod_{i=1}^ng_i(x_i),
où les fonctions \,g_i\ sont boréliennes et positives ou nulles, alors \,X\ est une suite de variables indépendantes. De plus, la fonction \,f_i\ définie par
f_i(x)\ =\  \frac{g_i(x)}{\int_{\R}g_i(u)du}
est une densité de la composante \,X_i.\
  • Réciproquement, si \,X\ est une suite de variables aléatoires réelles indépendantes de densités de probabilité respectives \,f_i,\ alors \,X\ possède une densité de probabilité, et la fonction \,f\ définie par
\forall (x_1,\dots,x_n)\in\R^n,\qquad f(x_1,\dots,x_n)\ =\  \prod_{i=1}^nf_i(x_i),
est une densité de probabilité de \,X.\

Fonction de variables aléatoires à densité[modifier | modifier le code]

Dans cette section, on considère la question suivante : étant donnée une variable aléatoire \,X\ de densité \,f_X\ et une fonction \,g,\ quelle est la loi de la variable aléatoire \,Y=g(X).\ En particulier, sous quelles conditions \,Y\ possède-t-elle aussi une densité de probabilité \,f_Y\  ? Et comment peut-on la calculer ? Une réponse rapide est que, localement, on doit pouvoir appliquer à la fonction g le théorème d'inversion locale sauf sur un ensemble de points de mesure de Lebesgue nulle). Le calcul de \,f_Y\ se résume alors à un changement de variable dans une intégrale simple ou multiple, comme cela est illustré dans les quelques exemples ci-dessous.

Somme de variables aléatoires indépendantes[modifier | modifier le code]

La densité de probabilité de la somme de deux variables aléatoires indépendantes U et V, chacune ayant une densité f_U et f_V, est donnée par une convolution de ces densités:

 f_{U+V}(x) = \int_{-\infty}^\infty f_U(y) f_V(x - y)\,dy= \left(f_U\ast f_V\right)(x).

Dans cet exemple, \,X=(U,V),\ \,f_X(u,v)=f_U(u)f_V(v)\ et \,g(u,v)=u+v.\

Pour déterminer la loi de la somme de variables indépendantes, on peut aussi passer par la fonction génératrice des moments ou par la fonction caractéristique d'une variable aléatoire[5] . C'est ainsi qu'est démontré le théorème de la limite centrale.

Fonction d'une variable aléatoire réelle à densité[modifier | modifier le code]

Notons \,f_X\ la densité de la variable aléatoire réelle \,X. Il est possible de considérer un changement de variable, dépendant de x. La transformation est la suivante: Y = g(X) où la fonction g est strictement monotone et dérivable, de dérivée qui ne s'annule nulle part. La densité f_Y(y) de la transformée est

Théorème — 
f_Y(y) = \left| \frac{1}{g'(g^{-1}(y))} \right| \cdot f_X(g^{-1}(y)).

g−1 représente la fonction réciproque de g et g' la dérivée de g.

Pour une transformation g non monotone, la densité de probabilité de Y est

f_Y(y) = \sum_{k}^{n(y)} \left| \frac{1}{g'(g^{-1}_{k}(y))} \right| \cdot f_X(g^{-1}_{k}(y))

n(y) est le nombre de solutions en x de l'équation g(x) = y, et g^{-1}_{k}(y) sont les solutions. La fonction g doit vérifier certaines hypothèses, toutefois : essentiellement on doit pouvoir lui appliquer le théorème d'inversion locale sauf sur un ensemble de points de mesure de Lebesgue nulle. Par exemple un ensemble d'hypothèses peu limitatif mais simple à vérifier serait : g est de classe C1 et l'ensemble des zéros de la dérivée g' est localement fini. Il s'agit d'exclure entre autres (mais pas seulement) le cas où g est constante sur un ensemble de mesure non nulle pour la loi de X, cas où g(X) n'a pas une loi à densité, car la loi de g(X) peut alors avoir une partie discrète.

Exemples  :
f_Y(y) = \frac{1}{|a|}\ f_X\left(\tfrac{y-b}{a}\right).
En effet, si, par exemple, a est strictement négatif, on obtient, via le changement de variable \,u=ax+b,\
\begin{array}{cl}
\mathbb{E}[\varphi(Y)] &= \mathbb{E}[\varphi(aX+b)]  = \int_{\mathbb{R}}\varphi(ax+b)f_X(x)dx
\\[7pt]
&= \int_{+\infty}^{-\infty}\varphi(u)f_X\left(\tfrac{u-b}{a}\right)\ \tfrac{du}{a}
\\[7pt]
&= \int_{-\infty}^{+\infty}\varphi(u)\ \left(\tfrac{1}{-a}\ f_X\left(\tfrac{u-b}{a}\right)\right)\ du,
\end{array}
ceci pour toute fonction \,\varphi\ mesurable bornée. CQFD
  • Prenons l'exemple du carré d'une variable aléatoire ; on sait que, si \,Y=X^2,\
\begin{array}{rl}
\mathbb{E}[\varphi(Y)] &= \mathbb{E}[\varphi(X^2)]  = \int_{\mathbb{R}}\varphi(x^2)f_X(x)dx
\\[7pt]
&= \int_{-\infty}^{0}\varphi(x^2)f_X(x)dx+\int_{0}^{+\infty}\varphi(x^2)f_X(x)dx
\\[7pt]
&= \int_{+\infty}^{0}\varphi(u)f_X(-\sqrt{u})\ \left(-\frac{du}{2\sqrt{u}}\right)+ \int_{0}^{+\infty}\varphi(u)f_X(\sqrt{u})\ \left(\frac{du}{2\sqrt{u}}\right)
\\[7pt]
&= \int_{\mathbb{R}}\varphi(u)\ \frac{1}{2\sqrt{u}} \left[f_X(\sqrt{u}) + f_X(-\sqrt{u})\right] 1_{\mathbb{R}_+}(u)du,
\end{array}
ceci pour toute fonction \,\varphi\ mesurable bornée. Ainsi, on trouve que
f_Y(y) = \frac{1}{2\sqrt{y}} \left[f_X(\sqrt{y}) + f_X(-\sqrt{y})\right] 1_{\mathbb{R}_+}(y)
ce qui est conforme à la formule.
  • Autre solution : on sait que,
    • si \,y\ge 0,\  :
F_Y(y) = \mathbb{P}(Y \le y) = \mathbb{P}(X^2 \le y) = \mathbb{P}(-\sqrt{y} \le X \le \sqrt{y}) = F_X(\sqrt{y}) - F_X(-\sqrt{y})
    • si \,y\le 0,\ alors
F_Y(y)=0.
En dérivant, on trouve à nouveau
f_Y(y) = \frac{1}{2\sqrt{y}} \left[f_X(\sqrt{y}) + f_X(-\sqrt{y})\right] 1_{\mathbb{R}_+}(y).
Contre-exemple  :

Prenons X uniforme sur [0,2] et \,g(x)=\min(x,1).\ Alors

P_Y(dy) = \tfrac12\ 1_{[0,1]}(y)\ dy\ +\  \tfrac12\ \delta_{1}(dy).

Autrement dit, la loi de Y a une partie à densité, mais aussi un atome en 1.

Notes et références[modifier | modifier le code]

  1. a et b Herbert Aron David, Order Statistics [détail des éditions], pages 8-13
  2. E. Hewitt & K. Stromberg, Real and Abstract Analysis [détail des éditions], Théorème 17.12, p. 264 et Théorème 18.16, p. 285.
  3. Il suffit que \,\varphi\ soit mesurable, ce qui est une forme de régularité minimale. Pour \,\psi\ c'est plus compliqué, en effet il faut éviter des phénomènes de type "Courbe de Peano", mais il faut aussi exclure le cas où \,\psi\ est identiquement nulle. Il faut donc que \,\psi\ soit suffisamment régulière, par exemple au sens où on peut lui appliquer le théorème des fonctions implicites,  de sorte que la courbe d'équation \psi(x,y)=0 soit de mesure nulle.
  4. Herbert Aron David, Order Statistics [détail des éditions], Ch. 1.
  5. que ces variables aléatoires ait une densité de probabilité, ou qu'elles n'en aient pas. Notons que, si une variable aléatoire possède une densité de probabilité, alors sa fonction caractéristique est la transformée de Fourier de cette densité.

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]