Loi de Cauchy (probabilités)

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Loi de Cauchy.
Cauchy
Image illustrative de l'article Loi de Cauchy (probabilités)
Densité de probabilité (ou fonction de masse)
pour différentes valeurs de x_0 et a

Image illustrative de l'article Loi de Cauchy (probabilités)
Fonction de répartition
Les couleurs correspondent au graphe précédent

Paramètres x_0\! Paramètre de position (réel)
a > 0\! Paramètre d'échelle (réel)
Support x \in \ ]\!-\infty; +\infty[
Densité de probabilité (fonction de masse) \frac{1}{\pi a\,\left[1 + \left(\frac{x-x_0}{a}\right)^2\right]} \!
Fonction de répartition \frac{1}{\pi} \arctan\left(\frac{x-x_0}{a}\right)+\frac{1}{2}
Espérance non définie
Médiane x_0
Mode x_0
Variance non définie
Asymétrie non définie
Kurtosis normalisé non définie
Entropie \ln(4\,\pi\,a)\!
Fonction génératrice des moments non définie
Fonction caractéristique \exp(x_0\,i\,t-a\,|t|)\!

La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité classique qui doit son nom au mathématicien Augustin Louis Cauchy.

Une variable aléatoire X suit une loi de Cauchy si elle admet une densité f_X par rapport à la mesure de Lebesgue, dépendant des deux paramètres x_0 et a (a > 0) et définie par :

\begin{align}
f(x; x_0,a) &= \frac{1}{\pi a \left[1 + \left(\frac{x-x_0}{a}\right)^2\right]} \\[0.5em]
&= { 1 \over \pi } \left[ { a \over (x - x_0)^2 + a^2  } \right]
\end{align}

Cette distribution est symétrique par rapport à x_0 (paramètre de position), le paramètre a donnant une information sur l'étalement de la fonction (paramètre d'échelle).

L'inverse d'une variable aléatoire, de loi de Cauchy, suit une loi de Cauchy.

Le quotient de deux variables aléatoires réelles indépendantes suivant des lois normales standards suit une loi de Cauchy.

La loi de Cauchy (avec notamment la loi normale et la loi de Lévy) est un cas particulier de loi stable.

Espérance et écart type[modifier | modifier le code]

La loi de Cauchy n'admet ni espérance ni écart type. Et il en va de même pour tout moment d'ordre supérieur. En effet,

x \mapsto \frac{a}{\pi}\frac{x}{(x-x_0)^2+a^2}\, n'est pas intégrable au sens de Lebesgue

car  \left|\frac{x}{(x-x_0)^2+a^2}\right| \sim \left|\frac{1}{x}\right| (à l'infini) d'où la divergence de l'intégrale : l'espérance n'existe pas.

A fortiori, la loi de Cauchy n'admet pas d'écart-type ( \int_{-\infty}^{+\infty} \frac{a}{\pi}\frac{x^2}{(x-x_0)^2+a^2}\, \mathrm{d}x diverge). Pour la même raison, les moments d'ordre supérieur n'existent pas non plus.

Cependant, x_0, qui en est la médiane, est souvent considéré comme la « moyenne » de la loi de Cauchy, car :

\lim_{R \rightarrow + \infty} \int_{-R}^R \frac{a}{\pi}\frac{x}{(x-x_0)^2+a^2}\, \mathrm{d}x = x_0

Loi de Cauchy et théorèmes limite[modifier | modifier le code]

Moyenne empirique d'une série de valeurs suivant la loi de Cauchy.

La loi de Cauchy est l'une de celles auxquelles la Loi des grands nombres ne s'applique pas: partant d'un échantillon d'observations x_1, x_2, \cdots, x_n issues d'une loi de Cauchy, la moyenne empirique

\bar{x} = \frac{1}{n} \sum_{i=1}^n x_i

ne converge pas vers une quantité déterministe (à savoir l'espérance de la loi). Au contraire, cette moyenne reste aléatoire: elle est elle-même distribuée selon une loi de Cauchy.

Elle nous montre ainsi que la condition de l'espérance définie selon l'intégrale de Lebesgue est indispensable à l'application de la loi. On remarque que les valeurs moyennes s'approchent de x_0 mais il arrive toujours un moment où une valeur trop éloignée « empêche » la moyenne de converger. La probabilité d'obtenir des valeurs éloignées de x_0 est en fait trop élevée pour permettre à la moyenne empirique de converger.

Références[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • (en) Stephen Stigler, « Cauchy and the Witch of Agnesi: An Historical Note on the Cauchy Distribution. », Biometrika, vol. 61,‎ août 1974, p. 375-380 (Article Stable URL sur jstor)

Voir aussi[modifier | modifier le code]