Loi de Cauchy (probabilités)

Un article de Wikipédia, l'encyclopédie libre.


Loi de Cauchy
Image illustrative de l’article Loi de Cauchy (probabilités)
Densité de probabilité
pour différentes valeurs de et a

Image illustrative de l’article Loi de Cauchy (probabilités)
Fonction de répartition
Les couleurs correspondent au graphe précédent

Paramètres Paramètre de position (réel)
Paramètre d'échelle (réel)
Support
Densité de probabilité
Fonction de répartition
Espérance non définie
Médiane
Mode
Variance non définie
Asymétrie non définie
Kurtosis normalisé non définie
Entropie
Fonction génératrice des moments non définie
Fonction caractéristique

La loi de Cauchy, appelée aussi loi de Lorentz, est une loi de probabilité continue qui doit son nom au mathématicien Augustin Louis Cauchy.

Une variable aléatoire X suit une loi de Cauchy si sa densité , dépendant des deux paramètres et ( > 0) est définie par :

La fonction ainsi définie s'appelle une lorentzienne. Elle apparaît par exemple en spectroscopie pour modéliser des raies d'émission.

Cette distribution est symétrique par rapport à (paramètre de position), le paramètre donnant une information sur l'étalement de la fonction (paramètre d'échelle).

L'inverse d'une variable aléatoire, de loi de Cauchy, suit une loi de Cauchy.

Le quotient de deux variables aléatoires réelles indépendantes suivant des lois normales standards suit une loi de Cauchy.

La loi de Cauchy (avec notamment la loi normale et la loi de Lévy) est un cas particulier de loi stable.

Caractérisation[modifier | modifier le code]

Densité de probabilités[modifier | modifier le code]

La fonction densité de probabilités est une fonction lorentzienne[1],[2] :

x0 est un paramètre de localisation situant le pic de la fonction, et a est un paramètre d'échelle qui définit la moitié de la largeur à mi-hauteur.

La fonction de la loi de Cauchy standard est :

Fonction de répartition[modifier | modifier le code]

La fonction de répartition est :

On en déduit la fonction quantile :

Entropie[modifier | modifier le code]

L'entropie de la loi de Cauchy est donnée par :

La loi de Cauchy est la loi de probabilités de maximum d'entropie pour une variable aléatoire X, avech[3]

Fonction caractéristique[modifier | modifier le code]

La fonction caractéristique d'une loi de Cauchy est donnée par :

Espérance et écart type[modifier | modifier le code]

La loi de Cauchy n'admet ni espérance ni écart type. Et il en va de même pour tout moment d'ordre supérieur. En effet,

n'est pas intégrable au sens de Lebesgue

car (à l'infini) d'où la divergence de l'intégrale : l'espérance n'existe pas.

A fortiori, la loi de Cauchy n'admet pas d'écart-type, car diverge. Pour la même raison, les moments d'ordre supérieur n'existent pas non plus. Ainsi on ne peut pas lui appliquer la loi forte des grands nombres.

Cependant, , qui en est la médiane, est souvent considéré comme la « moyenne » de la loi de Cauchy, car :

Loi de Cauchy et théorèmes limite[modifier | modifier le code]

Moyenne empirique d'une série de valeurs suivant la loi de Cauchy.

La loi de Cauchy est l'une de celles auxquelles la loi des grands nombres ne s'applique pas : partant d'un échantillon d'observations issues d'une loi de Cauchy, la moyenne empirique

ne converge pas vers une quantité déterministe (à savoir l'espérance de la loi). Au contraire, cette moyenne reste aléatoire : elle est elle-même distribuée selon une loi de Cauchy.

Elle nous montre ainsi que la condition de l'espérance définie selon l'intégrale de Lebesgue est indispensable à l'application de la loi. On remarque que les valeurs moyennes s'approchent de mais il arrive toujours un moment où une valeur trop éloignée « empêche » la moyenne de converger. La probabilité d'obtenir des valeurs éloignées de est en fait trop élevée pour permettre à la moyenne empirique de converger.

Rapport de vraisemblance monotone[modifier | modifier le code]

La loi de Cauchy n'admet pas un rapport de vraisemblance monotone[4].

Notes et références[modifier | modifier le code]

  1. N. L. Johnson, S. Kotz et N. Balakrishnan, Continuous Univariate Distributions, Volume 1, New York, Wiley, , Chapter 16.
  2. William Feller, An Introduction to Probability Theory and Its Applications, Volume II, New York, John Wiley & Sons Inc., , 2e éd., 704 (ISBN 978-0-471-25709-7, lire en ligne Inscription nécessaire)
  3. Sung Y. Park et Anil K. Bera, « Maximum entropy autoregressive conditional heteroskedasticity model », Elsevier, vol. 150, no 2,‎ , p. 219–230 (DOI 10.1016/j.jeconom.2008.12.014, lire en ligne[archive du ], consulté le )
  4. Jean Pierre Lecoutre, Statistique et probabilité

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

Article connexe[modifier | modifier le code]