Convergence de variables aléatoires

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

Dans la théorie des probabilités, il existe différentes notions de convergence de variables aléatoires. La convergence (dans un des sens décrits ci-dessous) de suites de variables aléatoires est un concept important de la théorie des probabilités utilisé notamment en statistique et dans l'étude des processus stochastiques. Par exemple, la moyenne de n variables aléatoires indépendantes et identiquement distribuées converge presque sûrement vers l'espérance commune de ces variables aléatoires (si celle-ci existe). Ce résultat est connu sous le nom de loi forte des grands nombres.

Dans cet article, on suppose que (Xn) est une suite de variables aléatoires réelles, que X est une variable aléatoire réelle, et que toutes ces variables sont définies sur un même espace probabilisé (\Omega, \mathcal{F}, \mathbb{P}).

Convergence en loi[modifier | modifier le code]

Article détaillé : Convergence en loi.

Soient F1, F2, ... la suite des fonctions de répartition associées aux variables aléatoires réelles X1, X2, ..., et F la fonction de répartition de la variable aléatoire réelle X. Autrement dit, Fn est définie par Fn(x)=P(Xnx), et F par F(x)=P(Xx).

La suite Xn converge vers X en loi, ou en distribution, si

\lim_{n\rightarrow\infty} F_n(a) = F(a), pour tout réel aF est continue.

Puisque F(a) = P(X ≤ a), cela signifie que la probabilité que X appartienne à un certain intervalle est très similaire à la probabilité que Xn soit dans cet intervalle pour n suffisamment grand. La convergence en loi est souvent notée

X_n \xrightarrow{\mathcal{L}} X

ou encore

X_n \xrightarrow{d} X

La convergence en loi est la forme la plus faible au sens où, en général, elle n'implique pas les autres formes de convergence définies ci-dessous, alors que ces autres formes de convergence impliquent la convergence en loi. C'est ce type de convergence qui est utilisé dans le théorème central limite.

De manière équivalente, la suite (Xn) converge en loi vers X si et seulement si pour toute fonction continue bornée

\lim_{n\rightarrow\infty} E[f(X_n)]=E [f(X)].

Théorème de continuité de Lévy — Soit \varphi_n(t) la fonction caractéristique de X_n et \varphi(t) celle de X. Alors

\left\{\forall t\in\mathbb{R} : \varphi_n(t)\to\varphi(t)\right\}\quad\Leftrightarrow\quad\left\{ X_n \xrightarrow{\mathcal L} X\right\}.

Autrement dit, (Xn) converge en loi vers X si et seulement si la fonction caractéristique de la variable aléatoire réelle Xn converge simplement vers la fonction caractéristique de la variable aléatoire réelle X.

Exemple : théorème central limite  :

La moyenne d'une suite de variables aléatoires centrées et de carré intégrable, indépendantes et de même loi, une fois renormalisée par \sqrt n converge en loi vers la loi normale

 \sqrt{n}\bar X_n\xrightarrow{\mathcal{L}}\mathcal{N}(0, \sigma^2).
Exemple : convergence de la loi de Student  :

La loi de Student de paramètre k converge, lorsque k tend vers +∞, vers la loi de Gauss:

 \mathrm{t}(k)\xrightarrow{\mathcal{L}}\mathcal{N}(0,1).

Dans ce cas, on peut aussi utiliser le lemme de Scheffé, qui est un critère de convergence d'une suite de variables aléatoires à densité vers une variable aléatoire à densité.

Exemple : loi dégénérée  :

La suite[1] \mathcal{N}\left(0, \frac{1}{n}\right) converge en loi vers une variable aléatoire X0 dite dégénérée, qui prend une seule valeur (0) avec probabilité 1 (on parle parfois de masse de Dirac en 0, notée \delta_0) :

\mathbb{P}(X_0\le x)=\delta_0\left(]-\infty,x]\right)=\begin{cases}0 & \text{ si } x< 0,\\1 &\text{ si } x \geq 0.\end{cases}

Convergence en probabilité[modifier | modifier le code]

Définition —  Soit (X_n)_n une suite de variables aléatoires réelles définies sur un même espace de probabilité \left(\Omega, \mathcal A, P\right). On dit que X_n converge vers X en probabilité si

\forall \varepsilon>0,\qquad \lim_{n\rightarrow\infty}\mathbb{P}\left(\left|X_n-X\right|\geq\varepsilon\right)=0.

On note parfois

X_n \xrightarrow{p} X

ou encore

X_n \xrightarrow{\mathbb{P}} X

Lemme —  Si l'on a les convergences suivantes, respectivement dans (E,d) et dans \R

X_n \xrightarrow[]{(d)} X \qquad \text{et} \qquad d(X_n,Y_n) \xrightarrow[]{(d)} 0

alors on a

(X_n,Y_n) \xrightarrow[]{(d)} (X,X)

dans l'espace E \times E muni de la distance infinie.

Propriété —  X_n converge vers X en probabilité \Rightarrow X_n converge vers X en loi.

Théorème de Slutsky — Si Xn converge en loi vers X, et si Yn converge en probabilité vers une constante c, alors le couple (Xn,Yn) converge en loi vers le couple (X,c).

Convergence presque sûre[modifier | modifier le code]

Définition —  On dit que Xn converge presque sûrement vers X si

\mathbb{P}\left(\lim_{n\rightarrow\infty}X_n=X\right)=1

ou de manière équivalente, s'il existe un sous-ensemble \mathbb{P}-négligeable N \subset \Omega tel que

\forall \omega \in \Omega \setminus N,\qquad X_n(\omega) \xrightarrow[n \to \infty]{} X(\omega)

On parle aussi de convergence presque partout ou avec probabilité 1 ou forte, et on écrit

X_n \xrightarrow{p.s.} X

ou, en anglais (pour almost surely)

X_n \xrightarrow{a.s.} X

La convergence presque sûre se réécrit sous la forme :

\forall \epsilon > 0,\qquad \mathbb{P}\left(\liminf_n \{ | X_n - X | < \epsilon \}\right) = 1

ou encore

\forall \epsilon > 0,\qquad \mathbb{P}\left(\limsup_n \{ | X_n - X | > \epsilon \}\right) = 0

\liminf_n \{ | X_n - X | < \epsilon \} := \bigcup_{N \in \N} \bigcap_{n \ge N} \{ | X_n - X | < \epsilon \} = \{ | X_n - X | < \epsilon, a.p.d.c.r. \}
\limsup_n \{ | X_n - X | > \epsilon \} := \bigcap_{N \in \N} \bigcup_{n \ge N} \{ | X_n - X | > \epsilon \} = \{ | X_n - X | > \epsilon, i.o. \}

Théorème —  X_n converge vers X presque sûrement \Rightarrow X_n converge vers X en probabilité

La convergence presque sûre est utilisée dans la loi forte des grands nombres.

Convergence en moyenne d'ordre r[modifier | modifier le code]

Définition —  Soient r > 0 et (X_n)_n une suite de variables aléatoires réelles définies sur un meme espace de probabilité \left(\Omega, \mathcal A, P\right). On dit que X_n converge vers X en moyenne d'ordre r ou en norme Lr si E(|X_n|^r) <+\infty pour tout n et si

\lim_{n\rightarrow\infty}E\left(\left|X_n-X\right|^r\right)=0

On note parfois X_n \xrightarrow{\mathbb{L}^r} X.

Pour r =1, on parle simplement de convergence en moyenne et pour r =2 de convergence en moyenne quadratique.

Propriété —  Pour r > s ≥ 1, la convergence en norme \mathbb{L}^r implique la convergence en norme \mathbb{L}^s.

Pour r =2, on a le résultat suivant :

Propriété —  Soit c une constante réelle. On a alors

 X_n \xrightarrow{\mathbb{L}^2} c

si et seulement si

 \lim_{n \to \infty} \mathbb{E}[X_n]=c \qquad \text{et} \qquad \lim_{n \to \infty}\operatorname{Var}[X_n]= 0

Propriété —  X_n converge vers X en norme Lr \Rightarrow X_n converge vers X en probabilité.

Exemple  :

La loi faible des grands nombres est une conséquence directe de ces deux dernières propriétés

Convergence d'une fonction d'une variable aléatoire[modifier | modifier le code]

Un théorème très pratique, désigné en anglais généralement sous le nom de Mapping theorem (en), établit qu'une fonction g continue appliquée à une variable qui converge vers X convergera vers g(X) pour tous les modes de convergence :

Théorème — Mapping theorem[2] Soit g: \R^k \to\R^m une fonction continue en tout point d'un ensemble C tel que  \mathbb{P}(X\in C)=1 :

  • Si X_n\xrightarrow{\mathcal{L}}X\text{ alors }g(X_n)\xrightarrow{\mathcal{L}}g(X) .
  • Si X_n\xrightarrow{p}X\text{ alors }g(X_n)\xrightarrow{p}g(X) .
  • Si X_n\xrightarrow{p.s}X\text{ alors }g(X_n)\xrightarrow{p.s.}g(X) .
Exemple  :

En statistiques, un estimateur convergent de la variance  \sigma ^2 est donné par :

s^2_{n-1} \equiv \frac{1}{n-1} \sum_{i=1}^n\left(y_i - \overline{y} \right)^2 .

On sait alors par le continuous mapping theorem que l'estimateur   \sqrt{s^2_{n-1}} de l'écart type  \sigma =\sqrt{\sigma ^2} est convergent, car la fonction racine est une fonction continue.

Implications réciproques[modifier | modifier le code]

Pour récapituler, voici la chaîne d'implication entre les différentes notions de convergence de variables aléatoires :

\begin{matrix}
  \xrightarrow{L^s}  & \underset{s>r\geq1}{\Rightarrow} &  \xrightarrow{L^r}  &             & \\
                     &                                  &     \Downarrow      &             & \\
  \xrightarrow{p.s.} &            \Rightarrow           & \xrightarrow{\ p\ } & \Rightarrow & \xrightarrow{\ d\ }
  \end{matrix}

La convergence en probabilité n'implique ni la convergence dans \mathbb{L}^r, ni la convergence presque sûre, comme le montre l'exemple suivant :

Exemple  :

Soit r>0. On considère \left(X_n\right)_{n \geq 1} une suite de variables aléatoires indépendantes telle que

\mathbb{P}(X_n=n^{1/r})=\frac{1}{n} \qquad \text{et} \qquad\mathbb{P}(X_n=0)=1-\frac{1}{n}

La suite (X_n)_n converge en probabilité vers 0 car

 \forall \varepsilon >0, \qquad \forall n \geq \varepsilon, \qquad \mathbb{P}(|X_n|\geq\varepsilon)= \mathbb{P}(X_n=n^{1/r})=\frac{1}{n} \to 0

En revanche, elle ne converge pas dans \mathbb{L}^r car  \mathbb{E}[X_n^r] = 1 \nrightarrow 0

Montrons qu'elle ne converge pas non plus presque sûrement. Si c'etait le cas sa limite presque sûre serait nécessairement sa limite en probabilité, à savoir 0. Or, comme  \sum_n \mathbb{P}(X_n =n^{1/r} ) = +\infty et comme les variables aléatoires X_n sont indépendantes, on a par la loi du zéro-un de Borel :

\mathbb{P}\left(\limsup_n \{ X_n  =n^{1/r} \}\right) = 1

i.e. presque sûrement X_n = n^{1/r} pour une infinité de n. Donc, presque sûrement, \limsup_n X_n  =+\infty. A fortiori X_n ne converge pas presque sûrement vers 0.

Exemple  :

Dans l'exemple précédent, pour éviter le recours à la loi du zéro-un de Borel, on peut définir explicitement la suite X_n de la façon suivante. On choisit \Omega := [0,1] muni de sa tribu borélienne et de la mesure de Lebesgue. On pose a_1 := 0, a_n :=  \frac{1}{2} + \cdots + \frac{1}{n} \pmod 1 pour n \geq 2, puis

I_n := \left\{ \begin{matrix}
\left[a_{n-1}, a_n\right]                         & \text{si } a_{n-1} < a_n\\
\left[0, a_n\right] \cup \left[a_{n-1}, 1\right]  & \text{si } a_{n-1} > a_n
\end{matrix}\right.

Enfin on définit

X_n(\omega) := \left\{\begin{matrix}
n^{1/r} & \text{si } \omega \in I_n \\
0       & \text{si } \omega \notin I_n
\end{matrix}\right.

Les X_n ainsi définis ne sont pas indépendants mais ils vérifient comme dans l'exemple précédent

\mathbb{P}\left(\limsup_n \{ X_n  =n^{1/r} \}\right) = 1

À quelques exceptions près, ces implications n'ont pas de réciproque, à proprement parler. Voici toutefois quelques propriétés utiles qu'on pourrait qualifier de « semblants de réciproques » :

  • Si Xn converge en loi vers une constante réelle c, alors Xn converge en probabilité vers c.
  • Si Xn converge en probabilité vers X, et si P(|Xn| ≤ b) = 1 pour tout n et un certain b, alors Xn converge en moyenne d'ordre r vers X pour tout r ≥ 1. Plus généralement, si Xn converge en probabilité vers X, et si la famille (|X|pn) est uniformément intégrable, alors Xn converge en moyenne d'ordre p vers X.
  • Si pour tout ε > 0,\sum_n\mathbb P\left(|X_n - X| > \varepsilon\right) < \infty,alors Xn converge presque sûrement vers X. En d'autres termes, si Xn converge en probabilité vers X suffisamment rapidement (i.e. la série ci-dessus converge pour tout ε > 0), alors Xn converge aussi presque sûrement vers X. Cela résulte d'une application directe du théorème de Borel-Cantelli.
  • Soit (X_n)_{n\ge1} une suite de variables aléatoires réelles indépendantes. Pour tout n, on pose :S_n = X_1+\cdots+X_n.Alors la convergence presque sûre de la suite (S_n)_{n\ge1} équivaut à sa convergence en probabilité ; autrement dit, la convergence presque sûre de la série de terme général X_n équivaut à sa convergence en probabilité.
  • D'après le théorème de représentation de Skorokhod, si Xn converge en loi vers X, alors il existe des copies de Xn et de X, disons Yn et Y, telles que Yn converge presque sûrement vers Y. (Voir Convergence en loi et fonction de répartition et notamment (1 → 3).)

Notes et références[modifier | modifier le code]

  1. Pour plus de détail sur cet exemple, voir Davidson et McKinnon 1993, chap. 4.
  2. Vaart 1998, p. 7

Bibliographie[modifier | modifier le code]