Loi normale généralisée

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Loi normale généralisée (version 1)
Image illustrative de l'article Loi normale généralisée
Densité de probabilité (ou fonction de masse)

Image illustrative de l'article Loi normale généralisée
Fonction de répartition

Paramètres  \mu \in \mathbb R paramètre de position
 \alpha \in ]0,\infty[ paramètre d'échelle
 \beta \in ]0,\infty[ paramètre de forme
Support x \in ]-\infty; +\infty[\!
Densité de probabilité (fonction de masse) \frac{\beta}{2\alpha\Gamma(1/\beta)} \; e^{-(|x-\mu|/\alpha)^\beta}

\Gamma est la fonction gamma
Fonction de répartition \scriptstyle \frac{1}{2} + \sgn(x-\mu)\frac{\gamma\left[1/\beta, \left( \frac{|x-\mu|}{\alpha} \right)^\beta\right]}{2\Gamma(1/\beta)}

\gamma est la fonction gamma incomplète

Espérance  \mu \,
Médiane  \mu \,
Mode  \mu \,
Variance \frac{\alpha^2\Gamma(3/\beta)}{\Gamma(1/\beta)}
Asymétrie 0
Kurtosis normalisé \frac{\Gamma(5/\beta)\Gamma(1/\beta)}{\Gamma(3/\beta)^2}-3
Entropie \frac{1}{\beta}-\log\left[\frac{\beta}{2\alpha\Gamma(1/\beta)}\right][1]

En théorie des probabilités et en statistique, la loi normale généralisée ou loi gaussienne généralisée désigne deux familles de lois de probabilité à densité dont les support sont l'ensemble des réels. Cette loi rajoute un paramètre de forme à la loi normale. Pour les différencier, les deux familles seront appelées « version 1 » et « version 2 », ce ne sont cependant pas des appellations standards.

Version 1[modifier | modifier le code]

La densité de probabilité des lois de cette famille est donnée par la formule :

f(x)= \frac{\beta}{2\alpha\Gamma(1/\beta)} \; e^{-\left(\frac{|x-\mu|}{\alpha}\right)^\beta}

\Gamma est la fonction gamma,  \mu \in \mathbb R est un paramètre de position,  \alpha \in ]0,\infty[ est un paramètre d'échelle et  \beta \in ]0,\infty[ est un paramètre de forme.

Les lois de probabilité de cette famille sont également connues sous les termes loi de puissance exponentielle ou loi d'erreur généralisée. Ce sont des lois symétriques. La famille inclut les lois normale et de Laplace, et comme cas limites, elle contient la loi uniforme continue sur les intervalles.

  • Lorsque \beta=2, la loi normale généralisée est la loi normale de moyenne \textstyle\mu et de variance \textstyle \frac{\alpha^2}{2}.
  • Lorsque \textstyle\beta=1, la loi normale généralisée est la Loi de Laplace.
  • Lorsque \textstyle\beta tend vers l'infini, la densité converge (simplement) vers la densité de la loi uniforme continue sur \textstyle [\mu-\alpha,\mu+\alpha].

Cette famille possède des lois dont la traîne (ou queue) est plus longue que celle de la loi normale, lorsque \beta<2. Elle possède également des lois dont la traîne est moins longue que celle de la loi normale, \beta>2.

Estimation des paramètres[modifier | modifier le code]

L'estimation des paramètres est étudiée via le maximum de vraisemblance et la méthode des moments[2]. Les estimées n'ont généralement pas de forme explicite et sont obtenues numériquement. Mais certaines ne nécessitent pas de simulation numérique[3]

La fonction logarithme du maximum de vraisemblance de la loi normale généralisée est de classe C^\infty, c'est-à-dire indéfiniment dérivable, seulement si \textstyle\beta\in \{2,4,6,\dots\}. Dans le cas contraire, la fonction possède \textstyle\lfloor \beta \rfloor dérivées continues.

Applications[modifier | modifier le code]

Cette version 1 de loi normale généralisée a été utilisée en modélisation lorsque l'intérêt de l'étude porte sur la concentration des valeurs autour de la moyenne et sur le comportement de la traîne[4],[5]. D'autres familles de lois peuvent être utilisées pour étudier d'autres déformations de la loi normale. Si l'intérêt de l'étude est le caractère symétrique, la famille des lois normales asymétriques ou la version 2 des lois normales généralisées (présentée ci-dessous) peuvent être utilisées. Si l'étude porte sur le comportement de la traîne, la famille des lois de lois de Student peut être considérée, ces dernières approchent la loi normale lorsque le nombre de degrés de liberté tend vers l'infini. Ces lois de Student ont une traîne plus longue que la loi normale mais sans obtenir de point de rebroussement à l'origine, ce qui n'est pas le cas de la loi normale généralisée.

Propriétés[modifier | modifier le code]

La loi normale généralisée multidimensionnelle, c'est-à-dire le produit de n lois normales généralisées avec les mêmes paramètres \alpha et \beta, est l'unique loi de probabilité à densité dont la densité peut être écrite sous la forme :

p(\mathbf x)=g(\|\mathbf x\|_\beta)

et qui possède des marginales indépendantes[6]. Ce résultat pour le cas spécial de la loi normale multidimensionnelle est attribué à James Clerk Maxwell[7].

Version 2[modifier | modifier le code]

Loi normale généralisée (version 2)
Image illustrative de l'article Loi normale généralisée
Densité de probabilité (ou fonction de masse)

Image illustrative de l'article Loi normale généralisée
Fonction de répartition

Paramètres  \xi \in\mathbb R paramètre de position
 \alpha \in ]0,\infty[ paramètre d'échelle
 \kappa \in \mathbb R paramètre de forme
Support x \in ]-\infty,\xi+\alpha/\kappa[ \text{ si } \kappa>0
x \in ]-\infty,\infty[ \text{ si } \kappa=0
x \in ]\xi+\alpha/\kappa; +\infty[ \text{ si } \kappa<0
Densité de probabilité (fonction de masse)  \frac{\phi(y)}{\alpha-\kappa(x-\xi)}, ou
y = \begin{cases} - \frac{1}{\kappa} \log \left[ 1- \frac{\kappa(x-\xi)}{\alpha} \right] & \text{si } \kappa \neq 0 \\ \frac{x-\xi}{\alpha} & \text{si } \kappa=0 \end{cases}
\phi est la densité de probabilité de la loi normale
Fonction de répartition  \Phi(y) , où
 y = \begin{cases} - \frac{1}{\kappa} \log \left[ 1- \frac{\kappa(x-\xi)}{\alpha} \right] & \text{si } \kappa \neq 0 \\ \frac{x-\xi}{\alpha} & \text{si } \kappa=0 \end{cases}
\Phi est la fonction de répartition de la loi normale
Espérance \xi - \frac{\alpha}{\kappa} \left( e^{\kappa^2/2} - 1 \right)
Médiane \xi  \,
Variance \frac{\alpha^2}{\kappa^2} e^{\kappa^2} \left( e^{\kappa^2} - 1 \right)
Asymétrie \frac{3 e^{\kappa^2} - e^{3 \kappa^2} - 2}{(e^{\kappa^2} - 1)^{3/2}} \text{ sign}(\kappa)
Kurtosis normalisé e^{4 \kappa^2} + 2 e^{3 \kappa^2} + 3 e^{2 \kappa^2} - 6

La densité de probabilité de la loi normale généralisée de version 2 est donnée par :

 \frac{\phi(y)}{\alpha-\kappa(x-\xi)}, où
y = \begin{cases} - \frac{1}{\kappa} \log \left[ 1- \frac{\kappa(x-\xi)}{\alpha} \right] & \text{si } \kappa \neq 0 \\ \frac{x-\xi}{\alpha} & \text{si } \kappa=0 \end{cases}

\phi est la densité de probabilité de la loi normale.

C'est une famille de lois de probabilités à densité telle que le paramètre de forme  \kappa \in \mathbb R peut être utilisé pour introduire une asymétrie[8],[9].

  • Lorsque  \kappa=0, la loi normale généralisée est la loi normale. C'est la seule valeur de ce paramètre telle que le support de la loi est l'ensemble des réels tout entier.
  • Lorsque  \kappa>0, l'asymétrie est changée et la loi est renforcée sur la gauche et bornée sur la droite.
  • Lorsque  \kappa<0, l'asymétrie est changée et la loi est renforcée sur la droite et bornée sur la gauche.

Estimation des paramètres[modifier | modifier le code]

Comme le cas des lois normales généralisées version 1, les paramètres peuvent être estimés via le maximum de vraisemblance et la méthode des moments. Les estimées n'ont généralement pas de forme explicite et nécessitent une approximation numérique.

Applications[modifier | modifier le code]

Cette famille de lois de probabilité peut être utilisée pour modéliser des valeurs de loi a priori la loi normale, ou de loi a priori une loi normale non symétrique. La loi normale asymétrique est une autre loi de probabilité utile pour modéliser les lois normales dont l'asymétrie est déviée. D'autres lois de probabilité utilisent un changement d'asymétrie comme la loi gamma, la loi log-normale ou la loi de Weibull, cependant ces lois ne contiennent pas la loi normale comme cas particulier.

D'autres lois en relation avec la loi normale[modifier | modifier le code]

Les deux généralisations de la loi normale décrites ici, ainsi que la Loi normale asymétrique sont des famille de lois qui étendent la loi normale en y ajoutant en paramètre de forme. Grâce au rôle central de la loi normale en théorie des probabilités et en statistique, beaucoup de lois peuvent être caractérisées par leur relation avec la loi normale. Par exemple, la loi log-normale, la loi normale repliée, ou la loi inverse-gaussienne sont définies comme des transformations de la loi normale standard. Cependant ces modifications ne contiennent pas la loi normale comme cas particulier, au contraire des lois normales généralisées et de la loi normale asymétrique.

Références[modifier | modifier le code]

  1. Saralees Nadarajah, « A generalized normal distribution », Journal of Applied Statistics, vol. 32, no 7,‎ septembre 2005, p. 685-694 (lien DOI?)
  2. M.K. Varanasi, « Parametric generalized Gaussian density estimation », Journal of the Acoustical Society of America, vol. 86, no 4,‎ octobre 1989, p. 1404-1415 (lien DOI?)
  3. Domínguez-Molina, J. Armando ; Gonzalez-Farías, Graciela ; Rodríguez-Dagnino, Ramon M. ,A practical procedure to estimate the shape parameter in the generalized Gaussian distribution lien
  4. Faming Liang, « A robust sequential Bayesian method for identification of differentially expressed genes », Statistica Sinica, vol. 17, no 2,‎ avril 2007, p. 571-597 (lire en ligne)
  5. George E. P. Box, Tiao, George C., Bayesian Inference in Statistical Analysis, New York, Wiley,‎ 1992 (ISBN 0-471-57428-7)
  6. (en) Fabian Sinz, « Characterization of the p-Generalized Normal Distribution. », Journal of Multivariate Analysis, vol. 100, no 5,‎ mai 2009, p. 817-820 (lien DOI?)
  7. M. Kac, « On a characterization of the normal distribution », American Journal of Mathematics, vol. 61, no 3,‎ 1939, p. 726-728 (lien DOI?)
  8. Hosking, J.R.M., Wallis, J.R. (1997) Regional frequency analysis: an approach based on L-moments, Cambridge University Press. ISBN 0-521-43045-3. Section A.8
  9. « Documentation pour le package de R nommé lmomco » (ArchiveWikiwixArchive.isGoogleQue faire ?). Consulté le 2013-04-12