Loi binomiale négative

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Binomiale négative
Image illustrative de l'article Loi binomiale négative
Densité de probabilité (ou fonction de masse)
La ligne rouge représente la moyenne et la ligne verte a pour longueur approximativement 2σ.

Paramètres r > 0\! (réel)
0<p<1\! (réel)
et q=1-p\!
Support k \in \{0,1,2,\ldots\}\!
Densité de probabilité (fonction de masse) \frac{\Gamma(r+k)}{k!\,\Gamma(r)}\,p^r\,q^k \!
Fonction de répartition I_p(r,k+1)\text{ où  }I_p(x,y) est la fonction bêta incomplète régularisée
Espérance \frac{r\,q}{p}\!
Mode \lfloor\frac{(r-1)\,q}{p}\rfloor\text{ si }r>1
0\text{ si }r\leq 1
Variance \frac{r\,q}{p^2}\!
Asymétrie \frac{q+1}{\sqrt{r\,q}}\!
Kurtosis normalisé \frac{6q+p^2}{r\,q}\!
Fonction génératrice des moments \left(\frac{p}{1-q e^t}\right)^r \!
Fonction caractéristique \left(\frac{p}{1-q e^{i\,t}}\right)^r \!

En probabilité et en statistiques, la loi binomiale négative est une distribution de probabilité discrète. Elle décrit la situation suivante: une expérience consiste en une série de tirages indépendants, donnant un "succès" avec probabilité p (constante durant toute l'expérience) et un "échec" avec une probabilité complémentaire. Cette expérience se poursuit jusqu'à l'obtention d'un nombre donné n de succès. La variable aléatoire représentant le nombre d'échecs (avant l'obtention du nombre donné n de succès) suit alors une loi binomiale négative. Ses paramètres sont n, le nombre de succès attendus, et p, la probabilité d'un succès. Cette loi est aussi connue sous le nom de loi de Pascal en l'honneur de Blaise Pascal et de loi de Polya, en l'honneur de George Pólya.

La loi se généralise à deux paramètres r et p, où r peut prendre des valeurs réelles strictement positives.

Loi binomiale négative à premier paramètre entier[modifier | modifier le code]

Loi de probabilité[modifier | modifier le code]

La loi binomiale négative dépend de deux paramètres, et plusieurs paramétrisations sont envisageables. Une paramétrisation très répandue introduit un entier naturel n non nul et un réel p compris entre 0 et 1. Il est courant d'introduire la probabilité complémentaire q=1-p. La loi de probabilité d'une variable aléatoire distribuée selon une binomiale négative de paramètres n et p, notée NegBin(n, p), prend la forme suivante : pour k = 0, 1, 2, ...

 f(k;n,p) = {k+n-1 \choose k}\cdot p^n \cdot q^k \!

Le coefficient binomial est:

 {k+n-1 \choose k} =  C_{n+k-1}^{k} = \frac{(k+n-1)!}{k!(n-1)!} = {k+n-1 \choose n-1}

La loi binomiale négative est la loi de probabilité de la variable aléatoire X qui comptabilise le nombre d'échecs nécessaires avant obtention de n succès, sachant que la probabilité d'un succès est p :

\mathbb{P}(X=k)=f(k;n;p) =  {k+n-1 \choose n-1}\cdot p^n \cdot q^k

La loi binomiale négative peut aussi s'écrire sous la forme

f(k;n,p)={-n\choose k}p^n(-q)^k

{-n\choose k} est un coefficient binomial appliqué à un entier négatif et est défini par

{-n\choose k}= \frac{(-n)(-n-1)\cdots (-n-k+1)}{k!}.

Cette expression justifie le nom de loi binomiale négative donnée à cette loi de probabilité. Elle facilite aussi, grâce à l'usage de la formule du binôme négatif, le calcul de son espérance \left(n\frac qp\right ) et de sa variance \left(n\frac q{p^2}\right).

Définition alternative[modifier | modifier le code]

On trouve parfois la définition alternative suivante: la loi binomiale négative de paramètres n et p est la loi de la variable aléatoire Y donnant le nombre d'essais nécessaires pour obtenir n succès. Alors pour tout m \ge n,

 \mathbb{P}(Y=m)={m-1 \choose m-n}\cdot p^n\cdot q^{m-n} = {m-1 \choose n-1}\cdot p^n\cdot q^{m-n}

Les deux formules se déduisent l'une de l'autre. Il suffit de remarquer que Y = X + n et que m = k+n.

Dans la suite, on prendra la première définition pour définir de la loi binomiale négative.

Fonction de répartition[modifier | modifier le code]

La fonction de répartition peut s'exprimer à l'aide de la fonction bêta incomplète régularisée:

 F(k) = I_{p}(n, k+1) \!

Une démonstration par récurrence sur k prouve que

 F(k) = 1-q^{k+1}\, \sum_{i=0}^{n-1} {k+i \choose i}\cdot p^i\!

Propriétés[modifier | modifier le code]

Mélange de Gamma-Poisson[modifier | modifier le code]

Il arrive que l'occurrence de certains phénomènes suive une loi de Poisson de paramètre λ variant lui-même de manière aléatoire. C'est le cas lorsque le phénomène peut se produire dans des populations différentes dans lesquelles la loi de Poisson change de paramètre. C'est ce qu'on appelle des mélanges de loi de Poisson. Lorsque le paramètre λ suit une distribution Gamma de paramètres r et θ, l'occurrence du phénomène suit une loi de mélange Gamma-Poisson. La probabilité que le phénomène se réalise k fois est alors

\mathbb{P}(X=k)=\int_0^{+ \infty}\mathbb{P}(X_{\lambda}=k)\times f(\lambda;r, \theta)\mathrm{d}\lambda

X_{\lambda} suit une loi de Poisson de paramètre λ et f(\lambda;r,\theta) est la densité de la loi Gamma de paramètres r et θ (réels positifs).

Si \Gamma(r) est la valeur de la fonction gamma en r, on obtient alors :

\mathbb{P}(X=k)=\int_0^{+ \infty}\dfrac{\lambda^ke^{-\lambda}}{k!}\dfrac{\lambda^{r-1}e^{-\lambda/\theta}}{\Gamma(r)\theta^r}\mathrm{d}\lambda
\mathbb{P}(X=k)=\int_0^{+ \infty}\dfrac{\lambda^{k+r-1}e^{-\lambda\frac{\theta+1}{\theta}}}{k!\Gamma(r)\theta^r}\mathrm{d}\lambda

Le changement de variable t=\lambda\frac{\theta+1}{\theta} conduit à :

 \mathbb{P}(X=k)=\left(\dfrac{\theta}{\theta+1}\right)^{r+k}\dfrac{1}{\Gamma(r)k!\theta^r}\int_0^{+ \infty}t^{k+r-1}e^{-t}dt
 \mathbb{P}(X=k)=\dfrac{\Gamma(k+r)}{\Gamma(r)k!}\left(\dfrac{1}{\theta+1}\right)^r\left(\dfrac{\theta}{\theta+1}\right)^k

En posant p=\dfrac{1}{\theta+1} et q=\dfrac{\theta}{\theta+1}, on remarque que p + q = 1 et

\mathbb{P}(X=k)=\dfrac{\Gamma(k+r)}{\Gamma(r)k!}p^rq^k

Cette formule est une généralisation de la loi précédente pour un paramètre r réel strictement positif. En effet, pour tout entier naturel n non nul,

 \dfrac{(k+n - 1)!}{k!(n-1)!}= \dfrac{\Gamma(k+n)}{\Gamma(n)k!}

On généralise ainsi la loi binomiale négative à un premier paramètre r réel positif. Les formules de la moyenne, de la variance et de la fonction de répartition (sous la forme I_p(r,k+1)) restent valables.

Le mélange Gamma-Poisson de paramètres r et θ est donc une loi binomiale négative de paramètres r et p=\frac{1}{\theta+1}.

Cas limite[modifier | modifier le code]

Si l'on note λ l'espérance de cette loi, on a les relations suivantes :

 \lambda = r \frac qp = r\frac{1-p}{p}
 p = \frac{r}{r+\lambda} \!

la loi de probabilité devient:

 g_{\lambda,r}(k) = \frac{\lambda^k}{k!} \cdot \frac{P(r+k-1,k)}{(r+\lambda)^k} \cdot \frac{1}{\left(1+\frac{\lambda}{r}\right)^{r}} \!

λ est un réel positif , r un entier naturel non nul et P( r + k - 1,k), noté aussi A_{r+k-1}^{k}, est le nombre de permutations ou d'arrangement de k éléments parmi r + k - 1

Sous cette paramétrisation, on a

 \lim_{r\to\infty} g_{\lambda,r}(k) = \frac{\lambda^k}{k!} \cdot 1 \cdot \frac{1}{\exp(\lambda)} \!

qui est la loi de probabilité d'une loi de Poisson avec un paramètre λ. En d'autres termes, cette loi binomiale négative converge vers une loi de Poisson, et r régit la déviation vis-à-vis de la Poisson. La loi binomiale négative peut donc être vue comme une alternative robuste à la loi de Poisson, approchant cette loi pour r grand, mais avec une variance plus grande pour r petit.

En d'autres termes, la loi binomiale négative converge en distribution vers une Loi de Poisson, dans le sens:

\mathrm{Poisson}(\lambda) = \lim_{r \to \infty} \mathrm{NegBin}(r, r/(\lambda+r)).\,

Loi géométrique associée[modifier | modifier le code]

Comme il existe deux définitions de la loi binomiale négative, il existe deux définitions de la loi géométrique. Si celle-ci modélise le nombre d'échecs avant le premier succès, elle correspond à la loi binomiale négative de paramètres 1 et p.

\mathrm{Geometrique}(p) = \mathrm{Neg Bin}(1, p).\,

Si Xn est une variable aléatoire distribuée selon la loi binomiale négative de paramètres n et p, alors Xn est la somme de n variables aléatoires indépendantes distribuées selon une loi géométrique de paramètre p. Le Théorème de la limite centrale indique de plus que Xn est approximativement normal, pour n suffisamment grand.

Lien avec la loi binomiale[modifier | modifier le code]

En outre, si Yk+n est une variable aléatoire distribuée selon une loi binomiale de paramètre k + n et p, alors


\begin{align}
\mathbb{P}(X_n \leq k) & {} = I_p(n, k+1) \\
& {} = 1 - I_{1-p}(k+1, n) \\
& {} = 1 - I_{1-p}((k+n)-(n-1), (n-1)+1) \\
& {} = 1 - \mathbb{P}(Y_{k+n} \leq n-1) \\
& {} = \mathbb{P}(Y_{k+n} \geq n) \\
\end{align}

La dernière ligne s'interprète ainsi: c'est la probabilité qu'après k+n épreuves, il y ait au moins n succès. Ainsi, la loi binomiale négative peut être vue comme la réciproque de la loi binomiale.

Somme[modifier | modifier le code]

La somme de deux variables aléatoires indépendantes et identiquement distribuées selon une loi binomiale négative de paramètres p et respectivement r1, r2, etc. est encore une loi binomiale négative, de paramètres p et r = r1 + r2. Cette propriété provient de l'expression de la fonction génératrice des moments et peut se généraliser à la somme de n variables.

Applications[modifier | modifier le code]

Temps d'attente dans un processus de Bernoulli[modifier | modifier le code]

Pour tout n entier, la loi binomiale négative est la distribution de succès et d'échecs dans une série d'épreuves de Bernoulli iid. Pour k+n épreuves de Bernoulli, avec probabilité de succès p, la loi binomiale négative donne la probabilité de k échecs et n succès, le dernier tirage étant un succès. Autrement dit, la loi binomiale négative est la distribution du nombre d'échecs avant le n ème succès dans des épreuves de Bernoulli, de probabilité de succès p.

Considérons l'exemple suivant. On lance plusieurs fois un dé honnête, et la face "1" est considérée comme un succès. La probabilité de succès à chaque épreuve est 1/6. Le nombre d'épreuves nécessaires pour obtenir 3 succès appartient à l'ensemble infini { 3, 4, 5, 6, ... }. Ce nombre d'épreuves est une variable aléatoire distribuée selon une loi binomiale négative (décalée, car l'ensemble commence à 3 et pas à 0). Le nombre d'échecs avant le troisième succès appartient à l'ensemble { 0, 1, 2, 3, ... }. Ce nombre d'échecs est aussi distribuée selon une loi binomiale négative.

Loi de Poisson «sur-dispersée»[modifier | modifier le code]

La loi binomiale négative, en particulier dans sa paramétrisation alternative décrite plus haut, est une alternative intéressante à la loi de Poisson. Elle est particulièrement utile pour des données discrètes, à valeurs dans un ensemble positif non-borné, dont la variance empirique excède la moyenne empirique. Si une Poisson est utilisée pour modéliser de telles données, la moyenne et la variance doivent être égales. Dans ce cas, les observations sont «sur-dispersée» par rapport au modèle Poisson. Puisque la loi binomiale négative possède un paramètre supplémentaire, il peut être utilisé pour ajuster la variance indépendamment de la moyenne.

Références[modifier | modifier le code]

  • Hilbe, Joseph M., Negative Binomial Regression, Cambridge, UK: Cambridge University Press (2007)

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]