Loi log-normale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Loi Log-normale
Image illustrative de l'article Loi log-normale
Densité de probabilité (ou fonction de masse)
μ=0

Image illustrative de l'article Loi log-normale
Fonction de répartition
μ=0

Paramètres \sigma > 0
-\infty < \mu < \infty
Support  [0; +\infty)\!
Densité de probabilité (fonction de masse) \frac{1}{x\sigma\sqrt{2\pi}}\exp\left(-\frac{\left[\ln(x)-\mu\right]^2}{2\sigma^2}\right)
Fonction de répartition \frac{1}{2}+\frac{1}{2} \mathrm{erf}\left[\frac{\ln(x)-\mu}{\sigma\sqrt{2}}\right]
Espérance e^{\mu+\sigma^2/2}
Médiane e^{\mu}
Mode e^{\mu-\sigma^2}
Variance (e^{\sigma^2}\!\!-1) e^{2\mu+\sigma^2}
Asymétrie (e^{\sigma^2}\!\!+2)\sqrt{e^{\sigma^2}\!\!-1}
Kurtosis normalisé e^{4\sigma^2}\!\!+2e^{3\sigma^2}\!\!+3e^{2\sigma^2}\!\!-6
Entropie \frac{1}{2}+\frac{1}{2}\ln(2\pi\sigma^2) + \mu

En théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres \mu et \sigma^2 si la variable Y=\ln(X) suit une loi normale d'espérance \mu et de variance \sigma^2 .

Cette loi est parfois également appelée loi de Galton.

Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants[1].

Caractérisation[modifier | modifier le code]

Densité[modifier | modifier le code]

La loi log-normale de paramètres \mu et \sigma admet pour densité

f(x;\mu,\sigma) = \frac{1}{x \sigma \sqrt{2 \pi}} \exp\left(- \frac{(\ln x - \mu)^2}{2\sigma^2}\right)

pour x>0. Les paramètres \mu et \sigma sont la moyenne et l'écart type du logarithme de la variable (puisque par définition, le logarithme de la variable est distribué selon une loi normale de moyenne \mu et d'écart-type \sigma).

Fonction de répartition[modifier | modifier le code]

Par intégration de la fonction de densité, il vient que la fonction de répartition s'exprime en fonction de la fonction d'erreur erf :

\frac{1}{2}+\frac{1}{2} \mathrm{erf}\left[\frac{\ln(x)-\mu}{\sigma\sqrt{2}}\right]

Moments[modifier | modifier le code]

Tous les moments existent et sont donnés par:

\mu_k=e^{k\mu+k^2\sigma^2/2}.

Espérance et écart-type[modifier | modifier le code]

L'espérance est

\mathrm{E}(X) = e^{\mu + \sigma^2/2}

et la variance est

\mathrm{Var}(X) = (e^{\sigma^2} - 1) e^{2\mu + \sigma^2}.\,

Des relations équivalentes permettent d'obtenir \mu et \sigma étant données l'espérance et l'écart-type:

\mu = \ln(\mathrm{E}(X))-\frac{1}{2}\ln\left(1+\frac{\mathrm{Var}(X)}{(\mathrm{E}(X))^2}\right),
\sigma^2 = \ln\left(1+\frac{\mathrm{Var}(X)}{(\mathrm{E}(X))^2}\right).

Interprétations[modifier | modifier le code]

Cette loi de distribution est particulièrement utilisée en analyse quantitative pour représenter les cours des instruments financiers (notamment actions, cours de change, taux d'intérêt, métaux précieux). Les cours ne peuvent pas être négatifs et il est plus pertinent d'exprimer les variations sous forme relative en pourcentage, donc les cours sont représentés généralement grossièrement par une loi log-normale.

Le nombre de mots dans une phrase peut être modélisé par une loi log-normale[2]. La répartition des revenus dans la population peut également être approchée par une loi log-normale.

En biologie on peut l'utiliser pour modéliser le poids des organismes vivants et en hydrologie les débits mensuels de petits bassins versants à régimes pluviaux[3].

En génomique il a été observé que les taux de mutations varient le long des chromosomes et leur distribution peut être approximée par une loi log-normale.

Notes et références[modifier | modifier le code]

  1. Bernard Delmas, Statistique descriptive, Paris, Nathan, 1996, p. 143.
  2. Data mining et statistique décisionnelle: l'intelligence des données Par Stéphane Tufféry, p.347
  3. http://mon.univ-montp2.fr/claroline/backends/download.php?url=L0NvdXJzNmItbG9pX2xvZ19OLnBkZg%3D%3D&cidReset=true&cidReq=UMBGT29