Loi uniforme continue

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Uniforme
Image illustrative de l'article Loi uniforme continue
Densité de probabilité (ou fonction de masse)

Image illustrative de l'article Loi uniforme continue
Fonction de répartition

Paramètres a,b \in \ ]\!-\infty,\infty[\!
Support a \le x \le b\!
Densité de probabilité (fonction de masse) 
    \begin{matrix}
    \frac{1}{b - a} & \mbox{pour }a \le x \le b \\  \\
    0 & \mathrm{pour}\ x<a\ \mathrm{ou}\ x>b
    \end{matrix}
    \!
Fonction de répartition 
    \begin{matrix}
    0 & \mbox{pour }x < a \\
    \frac{x-a}{b-a} & ~~~~~ \mbox{pour }a \le x < b \\
    1 & \mbox{pour }x \ge b
    \end{matrix}
    \!
Espérance \frac{a+b}{2}\!
Médiane \frac{a+b}{2}\!
Mode toute valeur dans [a,b]\!
Variance \frac{(b-a)^2}{12}\!
Asymétrie 0\!
Kurtosis normalisé -\frac{6}{5}\!
Entropie \ln(b-a)\!
Fonction génératrice des moments \frac{e^{tb}-e^{ta}}{t(b-a)}\!
Fonction caractéristique \frac{e^{itb}-e^{ita}}{it(b-a)}\!

En théorie des probabilités et en statistiques, les lois uniformes continues forment une famille de lois de probabilité à densité caractérisées par la propriété suivante : tous les intervalles de même longueur inclus dans le support de la loi ont la même probabilité. Cela se traduit par le fait que la densité de probabilités de ces lois est constante sur leur support.

La loi uniforme continue est une généralisation de la fonction rectangle à cause de la forme de sa fonction densité de probabilité. Elle est paramétrée par les plus petites et plus grandes valeurs a et b que la variable aléatoire uniforme peut prendre. Cette loi continue est souvent notée U(a,b).

Caractérisation[modifier | modifier le code]

Densité[modifier | modifier le code]

La densité de probabilité de la loi uniforme continue est une fonction porte sur l'intervalle [a, b] :


  f(x)=\begin{cases}
  \frac{1}{b - a} & \text{pour }a \leq x \leq b, \\
  0 & \mathrm{sinon}.
  \end{cases}

Fonction de répartition[modifier | modifier le code]

La fonction de répartition est donnée par


  F(x)=\begin{cases}
  0 & \text{pour }x < a \\
  \dfrac{x-a}{b-a} & \text{pour }a \le x < b \\
  1 & \text{pour }x \ge b
  \end{cases}

Fonctions génératrices[modifier | modifier le code]

Fonction génératrice des moments[modifier | modifier le code]

La fonction génératrice des moments est


M_x = \mathbb{E}[e^{tx}] = \frac{e^{tb}-e^{ta}}{t(b-a)} \,\!

qui permet de calculer tous les moments non centrés, m k:

m_1=\frac{a+b}{2}, \,\!
m_2=\frac{a^2+ab+b^2}{3}, \,\!
m_k=\frac{1}{k+1}\sum_{i=0}^k a^ib^{k-i}. \,\!

Ainsi, pour une variable aléatoire suivant cette loi, l'espérance est alors m1 = (a + b)/2 et la variance est m2 − m12 = (b − a)2/12.

Fonction génératrice des cumulants[modifier | modifier le code]

Pour n ≥ 2, le n-ième cumulant de la loi uniforme sur l'intervalle [0, 1] est bn/n, où bn est le n-ième nombre de Bernoulli.

Propriétés[modifier | modifier le code]

Statistiques d'ordre[modifier | modifier le code]

Soit X1, ..., Xn un échantillon i.i.d. issu de la loi U(0,1). Soit X(k) la k-ième statistique d'ordre de l'échantillon. Alors, la distribution de X(k) est une loi bêta de paramètres k et n − k + 1. L'espérance est

\mathbb{E}[X_{(k)}] = {k \over n+1}.

Ce fait est utile lorsqu'on construit une droite de Henry.

Les variances sont

\operatorname{Var}(X_{(k)}) = {k (n-k+1) \over (n+1)^2 (n+2)} .

L'aspect uniforme[modifier | modifier le code]

La probabilité qu'une variable uniforme tombe dans un intervalle donné est indépendante de la position de cet intervalle, mais dépend seulement de sa longueur, à condition que cet intervalle soit inclus dans le support de la loi. Ainsi, si X ≈ U(a, b) et que [x, x+d] est un sous-intervalle de [a,b], avec d > 0 fixé, alors


  P\left(X\in\left [ x,x+d \right ]\right)
  = \int_{x}^{x+d} \frac{\mathrm{d}y}{b-a}\,
  = \frac{d}{b-a} \,\!

qui est indépendant de x. Ce fait motive la dénomination de cette loi.

Loi uniforme standard[modifier | modifier le code]

Le cas particulier a=0 et b=1 donne naissance à la loi uniforme standard, aussi notée U(0,1). Il faut noter le fait suivant : si u1 est distribué selon une loi uniforme standard, alors c'est aussi le cas pour u2 = 1-u1.

Loi uniforme sur l'ensemble A[modifier | modifier le code]

À toute partie A de \scriptstyle\ \R^d,\ borélienne, dont la mesure de Lebesgue λ(A) est finie et strictement positive, on associe une loi de probabilité, appelée loi uniforme sur A, de densité de probabilité ƒ définie, pour \scriptstyle\ x\in\R^d,\ par :

f(x)\ =\ \frac{1}{\lambda(A)}\ \chi_A(x),

χA est la fonction indicatrice de l'ensemble A. La densité ƒ est donc nulle à l'extérieur de A mais égale à la constante 1/λ(A) sur A.

Le cas particulier traité principalement dans cette page est le cas où d=1 et où A est un intervalle [a,b] de \scriptstyle\ \R.\

Transport et invariance[modifier | modifier le code]

Condition suffisante — La loi de la variable aléatoire Y=T(X), image, par une transformation T, d'une variable X uniforme sur une partie A de \scriptstyle\ \R^{d},\ est encore la loi uniforme sur T(A) si T est, à un ensemble négligeable près, injectif et différentiable, et si, presque partout sur A, la valeur absolue du jacobien de T est constante.

Exemples de transformations respectant l'uniformité  :
  • Si T est affine et bijectif, Y suit la loi uniforme sur T(A).
  • En particulier, si T est une isométrie de \scriptstyle\ \R^{d}\ laissant A invariant, Y a même loi que X.
  • Par exemple, une isométrie de \scriptstyle\ \R^{d}\ laisse invariante la loi uniforme sur la boule unité centrée en l'origine, à condition de laisser l'origine invariante.
  • Autre exemple d'isométrie : si U est uniforme sur [0,1], 1-U l'est aussi.
  • Si \scriptstyle\ \{x\}\ est la partie fractionnaire de x, \scriptstyle\ T_{+,a}(x)=\{a+x\}\ et \scriptstyle\ T_{-,a}(x)=\{a-x\}\ ne sont pas injectifs ou différentiables sur tout [0,1] mais satisfont les hypothèses énoncées plus haut, avec T([0,1[)=[0,1[. En conséquence, \scriptstyle\ \{a+U\}\ et \scriptstyle\ \{a-U\}\ ont même loi que U. En sortant un peu du cadre de cette page, et en notant M(x) le point du cercle trigonométrique ayant pour affixe \scriptstyle\ e^{2i\pi x},\ on peut alors voir M(U) comme un point tiré au hasard uniformément sur le cercle trigonométrique. Les points \scriptstyle\ M(\{a+U\})\ et \scriptstyle\ M(\{a-U\})\ sont alors obtenus par rotation d'angle 2πa (resp. par symétrie par rapport à la droite d'angle directeur πa) qui sont des isométries laissant le cercle unité invariant. Il n'est donc pas étonnant que ces points suivent encore la loi uniforme sur le cercle unité. Cela traduit une propriété très particulière de la loi uniforme : elle est la mesure de Haar de \scriptstyle\ \R\backslash\Z.

Conséquence — Si la suite \scriptstyle\ V=(V_{1},V_{2},\dots,V_{n})\ est une suite de variables aléatoires indépendantes et uniformes sur [0,1] et si \scriptstyle\ U_{k}=\{V_{1}+V_{2}+\dots+V_{k}\},\ alors la suite \scriptstyle\ U=(U_{1},U_{2},\dots,U_{n})\ est une suite de variables aléatoires indépendantes et uniformes sur [0,1].

Il peut sembler surprenant que les variables \scriptstyle\ \{V_{1}+V_{2}\}\ et \scriptstyle\ \{V_{1}+V_{2}+V_{3}\},\ par exemple, soient indépendantes, alors qu'elles dépendent toutes deux de manière cruciale des variables \scriptstyle\ V_{1}\ et \scriptstyle\ V_{2}.\ C'est une conséquence particulière de la propriété d'invariance de la loi uniforme : par exemple, étant la mesure de Haar de \scriptstyle\ \R\backslash\Z, elle est idempotente pour la convolution.

Distributions associées[modifier | modifier le code]

Le théorème suivant[1] stipule que toutes les distributions sont liées à la loi uniforme:

Théorème de la réciproque — Pour une variable aléatoire de fonction de répartition F, on note G sa réciproque généralisée, définie, pour \ \scriptstyle \omega\in]0,1[,\ par :

G(\omega)=\inf\left\{x\in\mathbb{R}\ |\ F(x)\ge\omega\right\}.

Si \ \scriptstyle U\ désigne une variable aléatoire réelle uniforme sur [0,1], alors \ \scriptstyle X=G(U)\ a pour fonction de répartition \ \scriptstyle F\ .

Bref, pour obtenir des tirages (indépendants) selon la loi caractérisée par F, il suffit d'inverser cette fonction et de l'appliquer à des tirages (indépendants) uniformes.

Voici quelques exemples de cette loi:

  • Y = -ln(U)/λ est distribué selon la Loi exponentielle de paramètre λ;
  • Y = 1 - U1/n est distribué selon la Loi bêta de paramètres 1 et n. Ceci implique donc que la loi uniforme standard est un cas spécial de la loi bêta, de paramètres 1 et 1.

On trouvera un tableau plus complet ici. Par ailleurs, l'art d'engendrer des variables aléatoires de lois arbitraires, par exemple à l'aide de variables uniformes, est développé dans Non-Uniform Random Variate Generation, de Luc Devroye, édité chez Springer, disponible sur le web[2].

Applications[modifier | modifier le code]

En statistiques, lorsqu'une valeur p (p-value) est utilisée dans une procédure de test statistique pour une hypothèse nulle simple, et que la distribution du test est continue, alors la valeur p est uniformément distribuée selon la loi uniforme sur [0;1] si l'hypothèse nulle est vérifiée.

Obtenir des réalisations de la loi uniforme[modifier | modifier le code]

La plupart des langages de programmation fournissent un générateur de pseudo-nombres aléatoires, dont la distribution est effectivement la loi uniforme standard.

Si u est U(0;1), alors v = a + (ba)u suit la loi U(a;b).

Obtenir des réalisations d'une loi continue quelconque[modifier | modifier le code]

D'après le théorème cité plus haut, la loi uniforme permet en théorie d'obtenir des tirages de toute loi continue à densité. Il suffit pour cela d'inverser la Fonction de répartition de cette loi, et de l'appliquer à des tirages de la loi uniforme standard. Malheureusement, dans bien des cas pratiques, on ne dispose pas d'une expression analytique pour la fonction de répartition; on peut alors utiliser une inversion numérique (coûteuse en calculs) ou des méthodes concurrentes, comme la Méthode de rejet.

Le plus important exemple d'échec de la méthode de la transformée inverse est la Loi normale. Toutefois, la Méthode de Box-Muller fournit une méthode pratique pour transformer un échantillon uniforme en un échantillon normal, et ce de manière exacte[3].

Permutations aléatoires uniformes et loi uniforme[modifier | modifier le code]

Des mathématiciens comme Luc Devroye (en) ou Richard P. Stanley ont popularisé l'utilisation de la loi uniforme sur [0, 1] pour l'étude des permutations aléatoires (tailles des cycles, nombres eulériens, analyse d'algorithmes de tri comme le tri rapide, par exemple).

Construction d'une permutation aléatoire uniforme à l'aide d'un échantillon de loi uniforme[modifier | modifier le code]

Soit \scriptstyle\ V=(U_{1}, U_{2}, \dots, U_{n})\ une suite de variables aléatoires i.i.d. uniformes sur [0,1], définies sur un espace probabilisé \scriptstyle\ (\Omega,\mathcal A,\mathbb P)\ (par exemple, définies sur \scriptstyle\ \Omega=[0,1]^{n}\ muni de sa tribu des boréliens et de sa mesure de Lebesgue, par \scriptstyle\ U_{k}(\omega_{1}, \omega_{2}, \dots, \omega_{n})\ =\ \omega_{k},\ ou, de manière équivalente, par \scriptstyle\ U(\omega)=\omega.\ Pour tout entier k compris entre 1 et n, posons

\sigma(k,\omega)\ =\  \mathrm{Card}\left\{i\ \mathrm{tels~que}\ 1\le i\le n,\ \mathrm{et~tels~que}\ U_{i}(\omega)\le U_{k}(\omega)\right\}.\

Ainsi, \scriptstyle\ \sigma(k,\omega)\ s'interprète comme le rang de \scriptstyle\ U_{k}(\omega)\ dans l'échantillon, une fois celui-ci rangé dans l'ordre croissant.

Proposition —  L'application \scriptstyle\ k\to\sigma(k,\omega)\ est une permutation aléatoire uniforme.

La proposition ci-dessus reste vérifiée si la distribution de probabilité commune aux variables \scriptstyle\ U_{i}\ possède une densité, quelle qu'elle soit, et non pas seulement pour la densité uniforme. On peut même se contenter de variables i.i.d. dont la loi est diffuse (sans atomes) modulo une modification mineure de la démonstration. Cependant la loi uniforme est particulièrement commode pour diverses applications.

Nombres de descentes d'une permutation aléatoire, et nombres eulériens[modifier | modifier le code]

Soit \scriptstyle\ X_{n}(\omega)\ le nombres de descentes d'une permutation \scriptstyle\ \sigma(\omega)\ tirée au hasard uniformément dans \scriptstyle\ \mathfrak{S}_n.\ Bien sûr,

\begin{align}
\mathbb P\left(X_{n}=k\right)
& = \frac{\mathrm{nombre~de~cas~favorables}}{\mathrm{nombre~de~cas~possibles}}
\\
& = \frac{A(n,k)}{n!},
\end{align}

A(n,k) désigne le nombres de permutations de \scriptstyle\ \mathfrak{S}_n\ possédant exactement k descentes. A(n,k) est appelé nombre eulérien. Posons

S_{n}=U_{1}+U_{2}+\dots+U_{n}.

On a alors[4]

Théorème (S. Tanny, 1973) — De manière équivalente,


\mathbb P\left(X_{n}=k\right)\ = \ \mathbb P\left(\lfloor S_{n}\rfloor=k\right)\ = \ \mathbb P\left(k\le S_{n}<k+1\right),

ou bien


A(n,k)\ = \ n! \ \mathbb P\left(k\le S_{n}<k+1\right).

Il en découle immédiatement un théorème central limite pour \scriptstyle\ X_{n},\ via le théorème de Slutsky.

Notes et références[modifier | modifier le code]

  1. voir l'article détaillé ici.
  2. La version pdf (libre et autorisée) de (en) Luc Devroye, Non-Uniform Random Variate Generation, New York, Springer-Verlag,‎ 1986, 1e éd. (lire en ligne) est disponible, ainsi qu'un récit humoristique des démêlés de Luc Devroye avec son éditeur.
  3. Plus exactement, la méthode nécessite deux tirages indépendants U(0;1) pour fournir deux tirages normaux indépendants.
  4. voir (en) S. Tanny, « A probabilistic interpretation of the Eulerian numbers », Duke Math. J., vol. 40,‎ 1973, p. 717-722 ou bien (en) R.P. Stanley, « Eulerian partitions of a unit hypercube », Higher Combinatorics, Dordrecht, M. Aigner, ed., Reidel,‎ 1977.

Articles connexes[modifier | modifier le code]