Loi inverse-gaussienne

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Loi inverse-gaussienne
Image illustrative de l'article Loi inverse-gaussienne
Densité de probabilité (ou fonction de masse)

Paramètres \lambda > 0
 \mu > 0
Support  x \in ]0,\infty[
Densité de probabilité (fonction de masse)  \left[\frac{\lambda}{2 \pi x^3}\right]^{1/2} \exp{\frac{-\lambda (x-\mu)^2}{2 \mu^2 x}}
Fonction de répartition  \Phi\left(\sqrt{\frac{\lambda}{x}} \left(\frac{x}{\mu}-1 \right)\right) +\exp\left(\frac{2 \lambda}{\mu}\right) \Phi\left(-\sqrt{\frac{\lambda}{x}}\left(\frac{x}{\mu}+1 \right)\right)

where  \Phi \left(\right) est la fonction de répartition de la loi normale

Espérance  \mu
Mode \mu\left[\left(1+\frac{9 \mu^2}{4 \lambda^2}\right)^\frac{1}{2}-\frac{3 \mu}{2 \lambda}\right]
Variance \frac{\mu^3}{\lambda}
Asymétrie 3\left(\frac{\mu}{\lambda}\right)^{1/2}
Kurtosis normalisé \frac{15 \mu}{\lambda}
Fonction génératrice des moments e^{\left(\frac{\lambda}{\mu}\right)\left[1-\sqrt{1-\frac{2\mu^2t}{\lambda}}\right]}
Fonction caractéristique e^{\left(\frac{\lambda}{\mu}\right)\left[1-\sqrt{1-\frac{2\mu^2\mathrm{i}t}{\lambda}}\right]}

En théorie des probabilités et en statistique, la loi inverse-gaussienne (ou loi gaussienne inverse ou encore loi de Wald) est une loi de probabilité continue à deux paramètres dont le support est ]0,\infty[. Le nom Wald est issu de celui du statisticien Abraham Wald.

Le terme « inverse » ne doit pas être mal interprété, la loi est inverse dans le sens suivant : la valeur du mouvement brownien à un temps fixé est de loi normale, à l'inverse, le temps en lequel le mouvement brownien avec une dérive positive (drifté) atteint une valeur fixée est de loi inverse-gaussienne.

Sa densité de probabilité est donnée par

 f(x;\mu,\lambda) = \begin{cases} \displaystyle\left(\frac{\lambda}{2 \pi x^3}\right)^{1/2} \exp{\frac{-\lambda (x-\mu)^2}{2 \mu^2 x}} & \text{ pour }x>0,\\ 0 & \text{ sinon}.\end{cases}

\mu > 0 est son espérance et \lambda > 0 est un paramètre de forme.

Lorsque \lambda tend vers l'infini, la loi inverse-gaussienne se comporte comme une loi normale, elle possède plusieurs propriétés similaires avec cette dernière.

La fonction génératrice des cumulants (logarithme de la fonction caractéristique) de la loi inverse-gaussienne est l'inverse de celle de la loi normale.

Pour indiquer qu'une variable aléatoire X est de loi inverse-gaussienne de paramètres \mu et \lambda, on utilise la notation X \sim IG(\mu, \lambda).\,\!

Propriétés[modifier | modifier le code]

Somme[modifier | modifier le code]

Si les variables aléatoires X_i, i=1,2,\dots,n ont pour loi IG(\mu_0 w_i, \lambda_0 w_i^2) respectivement, et sont indépendantes, alors leur somme est de loi inverse-gaussienne :

 S=\sum_{i=1}^n X_i \sim IG \left(  \mu_0 \sum w_i, \lambda_0 \left(\sum w_i \right)^2  \right).

Il est à remarquer que

 \frac{\textrm{Var}(X_i)}{\textrm{E}(X_i)}= \frac{\mu_0^2 w_i^2 }{\lambda_0 w_i^2 }=\frac{\mu_0^2}{\lambda_0}

est constant pour tout i. C'est une condition nécessaire pour cette formule de sommation.

Échelle[modifier | modifier le code]

Si X est de loi inverse-gaussienne, alors pour tout t>0, tX est de loi inverse-gaussienne dont les paramètres sont multipliés par t :

 X \sim IG(\mu,\lambda) \quad \Longrightarrow \quad tX \sim IG(t\mu,t\lambda).

Famille exponentielle[modifier | modifier le code]

La loi inverse-gaussienne est une famille exponentielle à deux paramètres avec pour paramètres naturels \frac{-\lambda}{2\mu^2} et \frac{-\lambda}{2}, et pour statistiques naturelles X et 1/X.

Lien avec le mouvement brownien[modifier | modifier le code]

Le processus stochastique X=(X_t,t\geq0) défini par

\begin{cases} X_0 = 0\\ X_t = \nu t + \sigma W_t\end{cases}

(W_t,t\geq 0) est le mouvement brownien standard et \nu>0, est un mouvement brownien drifté par \nu.

Ainsi, le temps d'atteinte (ou premier temps de passage) de la valeur (ou niveau) \alpha > 0 fixé par X est aléatoire et de loi inverse-gaussienne :

T_\alpha = \inf\{ t> 0  \mid X_t=\alpha \} \sim IG(\tfrac\alpha\nu, \tfrac {\alpha^2} {\sigma^2}).\,

Pour un drift nul[modifier | modifier le code]

Un cas particulier usuel de l'explication précédente est le cas où le mouvement brownien n'a pas de drift. Dans ce cas, le paramètre \mu tend vers l'infini, et le temps d'atteinte d'une valeur \alpha<0 fixée est une variable aléatoire de densité de probabilité celle de la distribution de Lévy avec paramètre c=\frac{\alpha^2}{\sigma^2} :

 f \left( x; 0, \left(\frac{\alpha}{\sigma}\right)^2 \right)
= \frac{\alpha}{\sigma \sqrt{2 \pi x^3}} \exp\left(-\frac{\alpha^2 }{2 x \sigma^2}\right).

Maximum de vraisemblance[modifier | modifier le code]

Considérons le modèle donné par

 X_i \sim IG(\mu,\lambda w_i), \,\,\,\,\,\, i=1,2,\ldots,n

où tous les w_i sont connus, (\mu,\lambda) sont inconnus et où les variables indépendantes X_i ont pour fonction de vraisemblance :

 L(\mu, \lambda)= \left(      \frac{\lambda}{2\pi}   \right)^\frac n 2  \left(      \prod^n_{i=1} \frac{w_i}{X_i^3}    \right)^{\frac{1}{2}} \exp\left(\frac{\lambda}{\mu}\sum_{i=1}^n w_i -\frac{\lambda}{2\mu^2}\sum_{i=1}^n w_i X_i - \frac\lambda 2 \sum_{i=1}^n w_i \frac1{X_i} \right).

En résolvant l'équation de vraisemblance, on obtient les estimées suivantes :

 \hat{\mu}= \frac{\sum_{i=1}^n w_i X_i}{\sum_{i=1}^n w_i}, \,\,\,\,\,\,\,\, \frac{1}{\hat{\lambda}}= \frac{1}{n} \sum_{i=1}^n w_i \left( \frac{1}{X_i}-\frac{1}{\hat{\mu}} \right).

\hat{\mu} et \hat{\lambda} sont indépendants et

 \hat{\mu} \sim IG \left(\mu, \lambda \sum_{i=1}^n w_i \right)  \,\,\,\,\,\,\,\, \frac{n}{\hat{\lambda}} \sim \frac{1}{\lambda} \chi^2_{n-1}.

Simuler la loi inverse-gaussienne[modifier | modifier le code]

L'algorithme suivant peut être utiliser pour générer des valeurs de la loi inverse-gaussienne[1].

À partir de la loi normale centrée réduite
 \displaystyle \nu = \mathcal{N}(0,1).

Considérons le carré :

\displaystyle y = \nu^2

et utilisons la relation

x = \mu + \frac{\mu^2 y}{2\lambda} - \frac{\mu}{2\lambda}\sqrt{4\mu \lambda y + \mu^2 y^2}.
À partir de la loi uniforme continue sur [0,1]
\displaystyle z =  \mathcal{U}(0,1).

Si

z \le \frac{\mu}{\mu+x}

alors on utilise

\displaystyle x

sinon

\frac{\mu^2}{x}.
Code Java
public double inverseGaussian(double mu, double lambda) {
       Random rand = new Random();
       double v = rand.nextGaussian();   // à partir de la loi normale centrée réduite
       double y = v*v;
       double x = mu + (mu*mu*y)/(2*lambda) - (mu/(2*lambda)) * Math.sqrt(4*mu*lambda*y + mu*mu*y*y);
       double test = rand.nextDouble();  // à partir de la loi uniforme continue sur [0,1]
       if (test <= (mu)/(mu + x))
              return x;
       else
              return (mu*mu)/x;
}

Liens avec d'autres lois[modifier | modifier le code]

La convolution de la loi inverse-gaussienne et de la loi exponentielle est utilisée comme modélisation du temps de réponse en psychologie[2]. Elle est appelée loi ex-Wald.

Historique[modifier | modifier le code]

Cette loi fut initialement utilisée par Erwin Schrödinger en 1915 comme temps d'atteinte du mouvement brownien[3]. Le nom « inverse-gaussienne » (inverse Gaussian en anglais) fut proposé par Tweedie en 1945[4]. Abraham Wald réutilise cette loi en 1947 comme la forme limite d'un échantillon dans un test. Tweedie détaille des propriétés statistiques de cette loi en 1957.

Logiciel[modifier | modifier le code]

Le langage de programmation R possède cette loi[5].

Notes et références[modifier | modifier le code]

Références[modifier | modifier le code]

  1. (en) Generating Random Variates Using Transformations with Multiple Roots by John R. Michael, William R. Schucany and Roy W. Haas, American Statistician, Vol. 30, No. 2 (May, 1976), pp. 88–90
  2. (en) Schwarz W (2001) The ex-Wald distribution as a descriptive model of response times. Behav Res Methods Instrum Comput 33(4):457-469
  3. Schrodinger E (1915) Zur Theorie der Fall—und Steigversuche an Teilchenn mit Brownscher Bewegung. Physikalische Zeitschrift 16, 289-295
  4. Folks JL & Chhikara RS (1978) The inverse Gaussian and its statistical application - a review. J Roy Stat Soc 40(3) 263-289
  5. http://www.ci.tuwien.ac.at/~hornik/R/R-FAQ.html
  • The inverse gaussian distribution: theory, methodology, and applications by Raj Chhikara and Leroy Folks, 1989 ISBN 0-8247-7997-5
  • System Reliability Theory by Marvin Rausand and Arnljot Høyland
  • The Inverse Gaussian Distribution by Dr. V. Seshadri, Oxford Univ Press, 1993