Loi log-normale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Loi Log-normale
Image illustrative de l'article Loi log-normale
Densité de probabilité (ou fonction de masse)
μ=0

Image illustrative de l'article Loi log-normale
Fonction de répartition
μ=0

Paramètres \sigma > 0
-\infty < \mu < \infty
Support  [0; +\infty[\!
Densité de probabilité (fonction de masse) \frac{1}{x\sigma\sqrt{2\pi}}\exp\left(-\frac{\left[\ln(x)-\mu\right]^2}{2\sigma^2}\right)
Fonction de répartition \frac{1}{2}+\frac{1}{2} \mathrm{erf}\left[\frac{\ln(x)-\mu}{\sigma\sqrt{2}}\right]
Espérance e^{\mu+\sigma^2/2}
Médiane e^{\mu}
Mode e^{\mu-\sigma^2}
Variance (e^{\sigma^2}\!\!-1) e^{2\mu+\sigma^2}
Asymétrie (e^{\sigma^2}\!\!+2)\sqrt{e^{\sigma^2}\!\!-1}
Kurtosis normalisé e^{4\sigma^2}\!\!+2e^{3\sigma^2}\!\!+3e^{2\sigma^2}\!\!-6
Entropie \frac{1}{2}+\frac{1}{2}\ln(2\pi\sigma^2) + \mu

En théorie des probabilités et statistique, une variable aléatoire X est dite suivre une loi log-normale de paramètres \mu et \sigma^2 si la variable Y=\ln(X) suit une loi normale d'espérance \mu et de variance \sigma^2 .

Cette loi est parfois également appelée loi de Galton. Elle est habituellement notée \operatorname{Log-\mathcal{N}}(\mu,\, \sigma^{2}) dans le cas d'une seule variable ou \operatorname{Log-\mathcal{N}}(\mu,\, \Sigma) dans un contexte multidimensionnel.

Une variable peut être modélisée par une loi log-normale si elle est le résultat de la multiplication d'un grand nombre de petits facteurs indépendants[1].

Caractérisation[modifier | modifier le code]

Densité[modifier | modifier le code]

La loi log-normale de paramètres \mu et \sigma admet pour densité de probabilité

f(x;\mu,\sigma) = \frac{1}{x \sigma \sqrt{2 \pi}} \exp\left(- \frac{(\ln x - \mu)^2}{2\sigma^2}\right) = \frac{1}{x}f_{y}(\ln(x);\mu,\sigma)

pour x>0. Les paramètres \mu et \sigma sont l'espérance et l'écart type du logarithme de la variable (puisque par définition, le logarithme de la variable est distribué selon une loi normale d'espérance \mu et d'écart-type \sigma).

Fonction de répartition[modifier | modifier le code]

Par intégration de la fonction de densité, il vient que la fonction de répartition s'exprime en fonction de la fonction d'erreur erf :

F(x;\mu,\sigma) = \frac{1}{2}+\frac{1}{2} \mathrm{erf}\left[\frac{\ln(x)-\mu}{\sigma\sqrt{2}}\right] = F_{y}(\ln(x);\mu,\sigma).

Moments[modifier | modifier le code]

Tous les moments existent et sont donnés par:

\mu_k=e^{k\mu+k^2\sigma^2/2}.

Espérance et écart-type[modifier | modifier le code]

L'espérance est

\mathrm{E}(X) = e^{\mu + \sigma^2/2}

et la variance est

\mathrm{Var}(X) = (e^{\sigma^2} - 1) e^{2\mu + \sigma^2}.\,

Des relations équivalentes permettent d'obtenir \mu et \sigma étant données l'espérance et l'écart-type:

\mu = \ln(\mathrm{E}(X))-\frac{1}{2}\ln\left(1+\frac{\mathrm{Var}(X)}{(\mathrm{E}(X))^2}\right),
\sigma^2 = \ln\left(1+\frac{\mathrm{Var}(X)}{(\mathrm{E}(X))^2}\right).

Autres relations[modifier | modifier le code]

\mathrm{Cov}(X, Y) = \mathrm{E}(X) \, \sigma^{2}(Y)
\mathrm{Cov}(X, Z) = \mathrm{E}(X) \, \mathrm{Cov}(Y, Z)
\mathrm{Cor}(X, Z) = \mathrm{Cor}(Y, Z) \, \sigma(Y) \, (e^{\sigma^{2}(Y)}-1)^{-1/2}

Z est une variable normale quelconque de variance \sigma^{2}(Z).

Pour deux variables log-normales, les relations sont indiquées dans le contexte multidimensionnel ci-dessous.

Comportement de la densité[modifier | modifier le code]

Il suffit de dériver la densité de la loi log-normale pour vérifier les résultats suivants :

  • En x = 0, la singularité de la densité n’est qu’apparente car elle satisfait
\lim_{x \to 0+} f(x;\mu,\sigma) = 0.
La fonction peut ainsi être prolongée en 0 de manière continue en lui attribuant la valeur 0.
  • Comme l’indique son mode, la densité admet un maximum en x_{m} = \exp(\mu-\sigma^2) où sa valeur atteint
f(x_{m};\mu,\sigma) = \frac{1}{\sigma \sqrt{2 \pi}} \, \exp(\frac{\sigma^2}{2} - \mu).
Lorsque la valeur du mode est très faible (\mu = 0 \, et \sigma=10 \, comme dans le cartouche ci-dessus), le graphe de la densité semble diverger en 0, ce qui n’est formellement pas le cas.

Loi log-normale multidimensionnelle[modifier | modifier le code]

Un vecteur aléatoire \boldsymbol{X} est dit suivre une loi log-normale multidimensionnelle de paramètres \boldsymbol{\mu}\in\mathbb{R}^N et \boldsymbol{\Sigma}\in\mathcal{M}_N(\R) si le vecteur \boldsymbol{Y}=\ln(\boldsymbol{X}) (composante par composante) suit une loi normale multidimensionnelle dont le vecteur des espérances est \boldsymbol{\mu} et la matrice de covariance est \boldsymbol{\Sigma}.

Cette loi est habituellement notée \operatorname{Log-\mathcal{N}}(\boldsymbol{\mu},\, \boldsymbol{\Sigma}) .


La densité de probabilité et la fonction de répartition sont les suivantes :

f_{\boldsymbol{X},\boldsymbol{\mu},\boldsymbol{\Sigma}}\left(\boldsymbol{x}\right)=
\frac{1}{\prod_{i=1}^N x_i} \; f_{\boldsymbol{Y},\boldsymbol{\mu},\boldsymbol{\Sigma}}\left(\ln(\boldsymbol{x})\right)f_{\boldsymbol{Y},\boldsymbol{\mu},\boldsymbol{\Sigma}}() est la densité de \boldsymbol{Y}.
F_{\boldsymbol{X},\boldsymbol{\mu},\boldsymbol{\Sigma}}\left(\boldsymbol{x}\right)=
F_{\boldsymbol{Y},\boldsymbol{\mu},\boldsymbol{\Sigma}}\left(\ln(\boldsymbol{x})\right)F_{\boldsymbol{Y},\boldsymbol{\mu},\boldsymbol{\Sigma}}() est la fonction de répartition de \boldsymbol{Y}.


Les espérances et covariances sont données par les relations (valables également dans le cas dégénéré) :

\operatorname{E}\left([\boldsymbol X]_i \right)=e^{\boldsymbol{\mu}_i+\frac{1}{2}\boldsymbol{\Sigma}_{ii}} ,
\operatorname{Cov}\left([\boldsymbol X]_i , [\boldsymbol X]_j\right)=\operatorname{E}\left( [\boldsymbol{X}]_i  \right)\operatorname{E}\left( [\boldsymbol{X}]_j \right) \; (e^{\boldsymbol{\Sigma}_{ij}} - 1) .


Remarques :

  • Attention : la matrice de terme générique e^{\boldsymbol{\Sigma}_{ij}} n’a rien à voir avec l’exponentielle de la matrice \boldsymbol{\Sigma}.
  • \boldsymbol{\Sigma} peut être singulière (cas dégénéré) sans nécessairement impliquer que C le soit. Exemple :
\boldsymbol{\Sigma}=\begin{pmatrix}
1 & -0.5 & 0.5\\
-0.5 & 1 & 0.5\\
0.5 & 0.5 & 1\\
\end{pmatrix}.
  • À toute matrice semi-définie positive, on peut associer un vecteur normal dont elle est la covariance. Par contre, il n’existe pas nécessairement un vecteur log-normal dont elle soit la covariance. En effet, avec la relation C_{ij} = e^{\boldsymbol{\Sigma}_{ij}} - 1, toute matrice \boldsymbol{\Sigma} semi-définie positive conduit à une matrice C semi-définie positive, mais l’inverse n’est généralement pas vrai. Un contre-exemple où C est définie positive alors que \boldsymbol{\Sigma} ne l’est pas :
C=\begin{pmatrix}
1 & -0.5 & 0.9\\
-0.5 & 1 & -0.5\\
0.9 & -0.5 & 1\\
\end{pmatrix}.

Positivité de la covariance[modifier | modifier le code]

Les relations caractérisant les espérances et les covariances pouvant se déduire de la fonction génératrice des moments de la loi normale multidimensionnelle, la matrice de covariance doit naturellement être semi-définie positive. Ce résultat est ici présenté de manière directe.

Puisque les espérances \operatorname{E}\left([\boldsymbol X]_i \right) sont strictement positives, \operatorname{Cov}\left([\boldsymbol X]_i , [\boldsymbol X]_j\right) est semi-définie positive si et seulement si e^{\boldsymbol{\Sigma}_{ij}} - 1 l’est : il suffit alors de considérer uniquement cette dernière matrice. Puisque la positivité de \boldsymbol{\Sigma} est la seule propriété qui est exploitée, on notera cette matrice A qui ne fait plus référence à une covariance.

Lemme —  Soit A une matrice semi-définie positive et p un entier positif. Alors la matrice A^{(p)} définie par (A^{(p)})_{ij}=(A_{ij})^p l’est également.

Proposition 1 —  Si A est semi-définie positive, alors C_{ij} = e^{A_{ij}} - 1 \, l’est également.

Résultats relatifs au spectre de C indiquant des bornes pour ses valeurs propres :

Proposition 2 —  Soit A semi-définie positive et notons

  • 0 \leq d_{-} \leq d_{+} les valeurs extrêmes des coefficients diagonaux A_{ii},
  • 0 \leq \lambda_{-} \leq \lambda_{+} les valeurs propres extrêmes de A,
  • 0 \leq \lambda_{-}^{(p)} \leq \lambda_{+}^{(p)} les valeurs propres extrêmes de A^{(p)},
  • 0 \leq \mu_{-} \leq \mu_{+} les valeurs propres extrêmes de C_{ij} = e^{A_{ij}} - 1.
Alors
  1. \lambda_{-}^{(p)} \, d_{-} \leq \lambda_{-}^{(p+1)} \leq \lambda_{+}^{(p+1)} \leq \lambda_{+}^{(p)} \, d_{+},
  2. \lambda_{-} \, e^{d_{-}} \leq \mu_{-} \leq \mu_{+} \leq \lambda_{+} \, e^{d_{+}}.

Loi de Gibrat[modifier | modifier le code]

Article détaillé : Loi de Gibrat.

Historiquement nommée loi de l'effet proportionnel, puis parfois loi log-normale à 3 paramètres, cette loi est une généralisation de la loi log-normale obtenue par l’ajout d’une simple translation en posant

Y=\ln(X-X_0).

Elle est notée \operatorname{Log-\mathcal{N}}(X_0,\, \mu,\, \sigma^{2}) et ne concerne que des valeurs X > X_0. Son utilisation devrait se limiter aux situations où cette borne inférieure possède un sens physique et dont la valeur est connue.

Domaines d'application[modifier | modifier le code]

Marchés financiers[modifier | modifier le code]

La loi log-normale est souvent utilisée en analyse quantitative pour représenter les cours des instruments financiers (notamment les actions, cours de change, taux d'intérêt). Avec la loi multidimensionnelle, il est possible d’envisager des modèles susceptibles de considérer différents titres et leurs corrélations, ce qui permet ainsi d’appréhender et de quantifier les risques d'un portefeuille.

Les cours n’étant pas négatifs, il est pertinent d'exprimer leurs variations sous forme relative (en pourcentage) et, en première approximation, les cours sont décrits par une loi log-normale.

D’autre part, une raison plus profonde réside dans l’estimation de la volatilité du cours d’une action qui peut être définie par l’écart-type du rendement :

Si le prix d’une cotation passe de P1 à P2 durant une période d’un jour, le rendement journalier est r = P2 / P1 -1 et, à ce rythme, l’expression continue du rendement R annuel satisfait (T = 365 jours) :
e^R = (1+r)^T = (P_{2} / P_{1})^T , \;  ie \; R = T \, [\ln(P_{2})-\ln(P_{1})].

On voit alors apparaître le lien entre la volatilité \sigma(R) et la variable aléatoire qui impacte le logarithme du cours.

Autres domaines[modifier | modifier le code]

  • Le nombre de mots dans une phrase peut être modélisé par une loi log-normale[2].
  • La répartition des revenus dans la population peut également être approchée par une loi log-normale.
  • En biologie on peut l'utiliser pour modéliser le poids des organismes vivants.
  • En génomique il a été observé que les taux de mutations varient le long des chromosomes et leur distribution peut être approximée par une loi log-normale.

Notes et références[modifier | modifier le code]

  1. Bernard Delmas, Statistique descriptive, Paris, Nathan, 1996, p. 143.
  2. Data mining et statistique décisionnelle: l'intelligence des données Par Stéphane Tufféry, p.347
  3. http://mon.univ-montp2.fr/claroline/backends/download.php?url=L0NvdXJzNmItbG9pX2xvZ19OLnBkZg%3D%3D&cidReset=true&cidReq=UMBGT29

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]