Loi log-Cauchy

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Loi log-Cauchy
Image illustrative de l'article Loi log-Cauchy
Densité de probabilité (ou fonction de masse)

Image illustrative de l'article Loi log-Cauchy
Fonction de répartition

Paramètres \mu \in \mathbb R
 \sigma > 0\!
Support x \in ]0, +\infty[\!
Densité de probabilité (fonction de masse) { 1 \over x\pi } \left[ { \sigma \over (\ln x - \mu)^2 + \sigma^2  } \right],
Fonction de répartition \frac{1}{\pi} \arctan\left(\frac{\ln x-\mu}{\sigma}\right)+\frac{1}{2},
Espérance n'existe pas
Médiane e^{\mu}\,
Variance infinie
Asymétrie n'existe pas
Kurtosis normalisé n'existe pas
Fonction génératrice des moments n'existe pas

En théorie des probabilités et en statistique, la loi log-Cauchy est la loi de probabilité d'une variable aléatoire dont le logarithme suit une loi de Cauchy. Si X suit une loi de Cauchy, alors \scriptstyle Y= \exp(X) est de loi log-Cauchy ; similairement, si Y suit une loi log-Cauchy, alors \scriptstyle X=\ln(Y) est de loi de Cauchy[1].

Cette loi dépend de deux paramètres \scriptstyle \mu et \scriptstyle \sigma. Si une variable X suit une loi log-Cauchy, on notera X\sim LC(\mu,\sigma).

Caractérisation[modifier | modifier le code]

Densité de probabilité[modifier | modifier le code]

La densité de probabilité de la loi log-Cauchy est donnée par :

\begin{align} f(x; \mu,\sigma) & = \begin{cases}\frac{1}{x\pi\sigma \left[1 + \left(\frac{\ln x - \mu}{\sigma}\right)^2\right]} & \text{ si } x>0 \\ 0 & \text{ sinon}\end{cases}\\
&= { 1 \over x\pi } \left[ { \sigma \over (\ln x - \mu)^2 + \sigma^2  } \right] {\textbf 1}_{\{x>0\}} \end{align}

 \mu est un nombre réel et  \sigma >0[1],[2]. Si \sigma est connu, le paramètre d'échelle est e^{\mu}[1]. Les paramètres  \mu et  \sigma correspondent aux paramètre de position et paramètre d'échelle de la loi de Cauchy associée[1],[3]. Certains auteurs définissent  \mu et  \sigma comme, respectivement, les paramètres de position et d'échelle de la loi log-Cauchy[3].

Pour \mu = 0 et \sigma =1, la loi log-Cauchy est la loi de Cauchy standard, la densité de probabilité est alors réduite à[4] :

 f(x; 0,1) = \begin{cases}\frac{1}{x\pi (1 + (\ln x)^2)} & \text{ si } x>0\\0 & \text{ sinon.}\end{cases}

Fonction de répartition[modifier | modifier le code]

La fonction de répartition pour \mu = 0 et \sigma =1 est[4] :

F(x; 0, 1)=\begin{cases}\frac{1}{2} + \frac{1}{\pi} \arctan(\ln x)& \text{ si } x>0 \\ 0 & \text{ sinon.}\end{cases}

Fonction de survie[modifier | modifier le code]

La fonction de survie pour \mu = 0 et \sigma =1 est[4] :

S(x; 0, 1)=\begin{cases}\frac{1}{2} - \frac{1}{\pi} \arctan(\ln x)& \text{ si } x>0\\1 & \text{ sinon.}\end{cases}

Taux de défaillance[modifier | modifier le code]

Le taux de défaillance pour \mu = 0 et \sigma =1 est[4] :

 \lambda(x; 0,1) = \left(\frac{1}{x\pi \left(1 + \left(\ln x\right)^2\right)} \left(\frac{1}{2} - \frac{1}{\pi} \arctan(\ln x)\right)\right)^{-1}, \ \ x>0

Le taux de hasard décroit au début et sur la dernière partie du support de la densité, mais il peut exister un intervalle sur lequel le taux de hasard croît[4].

Propriétés[modifier | modifier le code]

La loi log-Cauchy est un exemple de loi à queue lourde[5]. Certains auteurs la considère comme une loi à « queue super-lourde », car elle possède une queue plus lourde que celles de type de la distribution de Pareto, c'est-à-dire qu'elle a une décroissance logarithmique[5],[6]. Comme avec la loi de Cauchy, aucun des moments (non triviaux) de la loi log-Cauchy n'est fini[4]. La moyenne et l'écart-type étant des moments, ils ne sont pas définis pour la loi log-Cauchy[7],[8].

La loi log-Cauchy est infiniment divisible pour certains paramètres[9]. Comme les lois log-normale, log-Student et de Weibull, la loi log-Cauchy est un cas particulier de loi bêta généralisée du second type[10],[11]. La loi log-Cauchy est en fait un cas particulier de la loi log-Student, comme la loi de Cauchy est un cas particulier de la loi de Student à un degré de liberté[12],[13].

Puisque la loi de Cauchy est une loi stable, la loi log-Cauchy est une loi log-stable[14].

Estimation des paramètres[modifier | modifier le code]

La médiane du logarithme naturel d'un échantillon est un estimateur robuste de  \mu[1].

Références[modifier | modifier le code]

  1. a, b, c, d et e (en) Olive, D.J., « Applied Robust Statistics », Southern Illinois University,‎ June 23, 2008 (consulté le 18 octobre 2011), p. 86
  2. (en) Lindsey, J.K., Statistical analysis of stochastic processes in time, Cambridge University Press,‎ 2004 (ISBN 978-0-521-83741-5), p. 33, 50, 56, 62, 145
  3. a et b (en) Mode, C.J. & Sleeman, C.K., Stochastic processes in epidemiology: HIV/AIDS, other infectious diseases, World Scientific,‎ 2000, 29–37 p. (ISBN 978-981-02-4097-4)
  4. a, b, c, d, e et f (en) Marshall, A.W. & Olkin, I., Life distributions: structure of nonparametric, semiparametric, and parametric families, Springer,‎ 2007, 443–444 p. (ISBN 978-0-387-20333-1)
  5. a et b (en) M. Falk, J. Hüsler et R. Reiss, Laws of Small Numbers: Extremes and Rare Events, Springer,‎ 2010, 3e éd., 80 p. (ISBN 978-3-0348-0008-2)
  6. (en) Alves, M.I.F., de Haan, L. & Neves, C., « Statistical inference for heavy and super-heavy tailed distributions »,‎ March 10, 2006
  7. (en) « Moment », Mathworld (consulté le 19 octobre 2011)
  8. (en) Y. Wang, « Trade, Human Capital and Technology Spillovers: An Industry Level Analysis », Review of International Economics, vol. 15, no 2,‎ 2007, p. 269-283 (lire en ligne)
  9. (en) Bondesson, L., « On the Levy Measure of the Lognormal and LogCauchy Distributions », Kluwer Academic Publications,‎ 2003 (consulté le 18 octobre 2011), p. 243–256
  10. (en) Knight, J. & Satchell, S., Return distributions in finance, Butterworth-Heinemann,‎ 2001 (ISBN 978-0-7506-4751-9), p. 153
  11. (en) Kemp, M., Market consistency: model calibration in imperfect markets, Wiley,‎ 2009 (ISBN 978-0-470-77088-7)
  12. (en) MacDonald, J.B., Statistical distributions in scientific work: proceedings of the NATO Advanced Study Institute, Springer,‎ 1981 (ISBN 978-90-277-1334-6), « Measuring Income Inequality », p. 169
  13. (en) Kleiber, C. & Kotz, S., Statistical Size Distributions in Economics and Actuarial Science, Wiley,‎ 2003, 101–102, 110 p. (ISBN 978-0-471-15064-0)
  14. (en) Panton, D.B., « Distribution function values for logstable distributions », Computers & Mathematics with Applications, vol. 25, no 9,‎ May 1993, p. 17–24 (DOI 10.1016/0898-1221(93)90128-I, lire en ligne)