Loi Poisson binomiale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
loi Poisson binomiale
Paramètres \mathbf{p}\in [0,1]^n — probabilités de succès pour chacun des n essais
Support k\in\{0, \dots, n \}
Densité de probabilité (fonction de masse) \sum\limits_{A\in F_k} \prod\limits_{i\in A} p_i \prod\limits_{j\in A^c} (1-p_j)
Fonction de répartition \sum\limits_{l=0}^k \sum\limits_{A\in F_l} \prod\limits_{i\in A} p_i \prod\limits_{j\in A^c}{(1-p_j)}
Espérance \sum\limits_{i=1}^n p_i
Variance  \sigma^2 = \sum\limits_{i=1}^n (1 - {p_i}){p_i}
Asymétrie \frac{1}{\sigma^3}\sum\limits_{i=1}^n {\left( 1-2{p_i} \right)\left( 1-{{p}_{i}} \right){{p}_{i}}}
Kurtosis normalisé \frac{1}{\sigma^4}\sum\limits_{i=1}^n {\left( 1 - 6(1 - p_i){p_i} \right)\left( 1 - p_i \right)p_i}
Fonction génératrice des moments \prod\limits_{i=1}^n (1-{p_i}+{p_i}{e^{t}})

En théorie des probabilités et en statistique, la loi Poisson binomiale est une loi de probabilité discrète de la somme d'épreuves de Bernoulli indépendantes.

En d'autres termes, c'est la loi de probabilité du nombre de succès (nombre de pile) d'une suite de n lancers de pile ou face dont les probabilités de succès (d'obtenir pile) sont p_1, p_2, \dots , p_n. La loi binomiale ordinaire est un cas spécial de la loi Poisson binomiale lorsque toutes les probabilités sont les mêmes : p_1 = p_2 = \dots = p_n .

Espérance et variance[modifier | modifier le code]

Puisque la loi Poisson binomiale est une somme de n variables aléatoires indépendantes de loi de Bernoulli, son espérance et sa variance sont simplement les sommes des espérances et variances des lois de Bernoulli :

\mu = \sum\limits_{i=1}^n p_i
\sigma^2 =\sum\limits_{i=1}^n (1-p_i) p_i.

Fonction de masse[modifier | modifier le code]

La probabilité d'obtenir k succès sur un total de n essais peut être écrit comme la somme[1] :

\mathbb P(K=k) = \sum\limits_{A\in F_k}{\prod\limits_{i\in A}{{{p}_{i}}}\prod\limits_{j\in {{A}^{c}}}{(1-{{p}_{j}})}}

F_k est l'ensemble de tous les sous-ensembles de \{1,2,\dots,n\} contenant k éléments. Par exemple si n=3, alors F_2=\left\{ \{1,2\},\{1,3\},\{2,3\} \right\}. A^c est le complémentaire de A.

L'ensemble F_k contient \scriptstyle {n \choose k}=\frac{n!}{(n-k)!k!} éléments, ainsi les calculs deviennent très grands en pratique, par exemple pour n=30, F_{15} contient un nombre de l'ordre de 1020 éléments. Il existe cependant des méthodes efficaces pour calculer \mathbb P(K=k).

On peut utiliser une formule itérative[2],[3] :

\mathbb P (K=k)=\left\{ \begin{align}
  & \prod\limits_{i=1}^{n}{(1-{{p}_{i}})}  \qquad k=0 \\
 & \frac{1}{k}\sum\limits_{i=1}^{k}{{{(-1)}^{i-1}}\mathbb P (K=k-i)T(i)} \qquad k>0 \\
\end{align} \right.

T(i)=\sum\limits_{j=1}^{n}{{{\left( \frac{{{p}_{j}}}{1-{{p}_{j}}} \right)}^{i}}} .

Une autre possibilité est d'utiliser la transformée de Fourier discrète[4] :

\mathbb P (K=k)=\frac{1}{n+1}\sum\limits_{l=0}^{n}{{{C}^{lk}}\prod\limits_{m=1}^{n}{\left( 1+({{C}^{l}}-1){{p}_{m}} \right)}}

C=\exp \left( -\frac{2i\pi }{n+1} \right) avec i l'unité imaginaire.

D'autres méthodes sont décrites dans les ouvrages de Chen[5].

Références[modifier | modifier le code]

  1. Y. H. Wang, « On the number of successes in independent trials », Statistica Sinica, vol. 3, no 2,‎ 1993, p. 295–312 (lire en ligne)
  2. (en) B. K. Shah, « On the distribution of the sum of independent integer valued random variables », American Statistician, vol. 27, no 3,‎ 1994, p. 123-124 (lire en ligne)
  3. (en) X. H. Chen, « Weighted finite population sampling to maximize entropy », Biometrika, vol. 81, no 3,‎ 1994, p. 457 (lire en ligne)
  4. (en) M. Fernandez, « Closed-Form Expression for the Poisson-Binomial Probability Density Function », IEEE Transactions on Aerospace Electronic Systems, vol. 46,‎ 2010, p. 803–817 (DOI 10.1109/TAES.2010.5461658)
  5. (en) S. X. Chen, « Statistical Applications of the Poisson-Binomial and conditional Bernoulli distributions », Statistica Sinica, vol. 7,‎ 1997, p. 875–892 (lire en ligne)