Loi binomiale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Binomiale
Image illustrative de l'article Loi binomiale
Fonction de masse
Image illustrative de l'article Loi binomiale
Fonction de répartition

Paramètres n \geq 0 nombre d'épreuves (entier)
0\leq p \leq 1 probabilité de succès (réel)
q=1-p
Support k \in \{0,\dots,n\}\!
Fonction de masse {n\choose k} p^k q^{n-k} \!
Fonction de répartition I_{1-p}(n-\lfloor k\rfloor, 1+\lfloor k\rfloor) \!
Espérance np\!
Médiane un des \{\lfloor np\rfloor, \lceil np \rceil\}[1]
Mode \lfloor (n+1)\,p\rfloor\!
Variance npq\!
Asymétrie \frac{q-p}{\sqrt{npq}}\!
Kurtosis normalisé \frac{1-6pq}{npq}\!
Entropie  \frac{1}{2} \ln \left( 2 \pi n e p q \right) + O \left( \frac{1}{n} \right)
Fonction génératrice des moments (q + pe^t)^n \!
Fonction caractéristique (q + pe^{it})^n \!

En mathématiques, la loi binomiale de paramètres n et p est une loi de probabilité qui correspond à l'expérience suivante :

On renouvelle n fois de manière indépendante une épreuve de Bernoulli de paramètre p (expérience aléatoire à deux issues possibles, généralement dénommées respectivement « succès » et « échec », la probabilité d'un succès étant p, celle d'un échec étant q = 1 - p). On compte alors le nombre de succès obtenus à l'issue des n épreuves et on appelle X la variable aléatoire indiquant ce nombre de succès.

L'univers X(Ω) désigne l'ensemble des entiers naturels de 0 à n.

La variable aléatoire suit une loi de probabilité définie par :

p(k) = \mathbb{P}(\mathrm{X} = k)= {n \choose k} \, p^k q^{n-k}= {n \choose k} \, p^k (1-p)^{n-k}

Cette formule fait intervenir le nombre des combinaisons de k éléments parmi n, généralement noté {n\choose k} ou \mathrm{C}_{n}^{k}. Notons que ce nombre de combinaisons se distingue du nombre des arrangements de k éléments parmi n, \mathrm{A}^k_n = \dfrac{n!}{(n-k)!}, du fait que dans une combinaison l'ordre des éléments n'importe pas. Et comme il y a k! (prononcer factorielle k) façons d'ordonner k éléments, le nombre des combinaisons se déduit du nombre des arrangements par la simple division \dfrac{\mathrm{A}^k_n}{k!}\, et on obtient :

{n\choose k} =\frac{n!}{k!(n-k)!}

Cette loi de probabilité s'appelle la loi binomiale de paramètres n et p et se note B(n, p).

Représentation sous la forme d'un arbre[modifier | modifier le code]

Représentation de la loi binomiale sous forme d'un arbre.

La loi binomiale peut se représenter sous la forme d'un arbre : chaque épreuve de Bernoulli est un nœud, un succès est représenté par le fils de gauche et un échec par le fils de droite. C'est un arbre binaire équilibré. Cet arbre peut aider à comprendre les formules associées à la loi, et, pour un faible nombre d'épreuves, il permet de déterminer les probabilités associées par un simple dénombrement.

L'exemple ci-contre représente l'arbre dans le cas de n = 3 épreuve. On voit que :

  • p(0) = q3 ;
  • p(1) = 3 × p × q2 ;
  • p(2) = 3 × p2 × q ;
  • p(3) = p3.

On retrouve bien évidemment que

{3 \choose 0} = 1 \text{ ; } {3 \choose 1} = 3 \text{ ; } {3 \choose 2} = 3 \text{ ; } {3 \choose 3} = 1 \text{.}

Calcul de p(k)[modifier | modifier le code]

Une épreuve de Bernoulli conduit à la création de l'univers Ω = {S ; E}, (S pour Succès et E pour Échec).

On modélise n épreuves de Bernoulli indépendantes par l'univers Ωn constitué des n-uplets d'éléments de Ω, sur lequel peut se définir une probabilité produit. La probabilité de l'éventualité (S, S, …, S, E, E, …, E) avec k succès et n - k échecs a donc pour valeur p^k q^{n-k}.

Plus généralement, tout n-uplet formé de k succès et de n-k échecs aura pour probabilité p^k q^{n-k} quel que soit l'ordre d'apparition des S et des E.

L'évènement « X = k » est formé de tous les n-uplets comportant k succès et n - k échecs. La combinatoire permet de déterminer le nombre de n-uplets de ce type : il y en a autant que de parties à k éléments d'un ensemble à n éléments ; or chaque partie correspond à une façon de placer les k succès parmi les n places du n-uplet. Il y a donc {n \choose k} n-uplets, chacun ayant une probabilité égale à p^k q^{n-k}.

Donc \mathbb{P}(\mathrm{X} = k) = {n \choose k} \, p^k (1-p)^{n-k} = {n \choose k} \, p^k q^{n-k}.

Remarque : si la variable aléatoire X suit la loi binomiale de paramètres n et p, alors n - X suit la loi binomiale de paramètres n et q ; en effet, elle compte les échecs au cours des n épreuves de Bernoulli.

Fonction de répartition[modifier | modifier le code]

La fonction de répartition ne dépend de la variable réelle a que par sa partie entière, notée ⌊a⌋. La fonction vaut 0 pour a < 0 et 1 pour an. Pour 0 ≤ a < n, elle s'exprime comme une somme

\mathrm{F}(a, n, p) = \mathbb{P}(\mathrm{X} \le a) =\sum_{i=0}^{\lfloor a \rfloor} {n\choose i}p^i(1-p)^{n-i}

ou encore comme une intégrale. Pour tout entier k tel que 0 ≤ k < n, on a en effet :

\sum_{i=0}^k{n\choose i}p^i(1-p)^{n-i}=(n-k) {n \choose k} \int_0^{1-p} t^{n-k-1} (1-t)^k \, \mathrm{d}t

(c'est un cas particulier des propriétés de la fonction bêta incomplète régularisée, l'expression ci-dessus étant égale à \mathrm{I}_{1-p}(n-k, k+1)[2]).

Lien avec la loi de Bernoulli[modifier | modifier le code]

Du fait de son interprétation comme loi du nombre de succès lors d'une série de n épreuves de Bernoulli indépendantes et identiques, la loi binomiale est en particulier la loi de la somme de n variables aléatoires indépendantes suivant toutes la (même) loi de Bernoulli de paramètre p, prenant la valeur 1 en cas de succès (probabilité p) et 0 en cas d'échec (probabilité q = 1- p). Des exemples importants où la loi binomiale apparaît comme loi de la somme de variables de Bernoulli sont les suivants :

Par ailleurs, cette interprétation en termes de somme de variables de Bernoulli permet un calcul rapide des cumulants, dont l’espérance et de la variance.

Espérance, variance, écart type[modifier | modifier le code]

Ainsi X a la même loi que la somme S de n variables aléatoires indépendantes suivant toutes la (même) loi de Bernoulli de paramètre p. Comme l'espérance et la variance d'une variable aléatoire ne dépendent que de sa loi de probabilité, on en déduit que :

  • par linéarité de l'espérance, E[X] est la somme des espérances de ces variables de Bernoulli ; or elles ont pour espérance p et pour variance p(1-p), d'où E[X]=np
  • par indépendance des n variables de Bernoulli, V(X) est la somme des variances de ces n variables aléatoires, soit V(X)=np(1-p)
  • on en déduit naturellement que \sigma_{X} = \sqrt{np(1-p)}

Convergence[modifier | modifier le code]

Pour de grandes valeurs de n, le calcul de {n \choose k} \, p^k q^{n-k} devient vite pratiquement impossible, sauf si l'on cherche à calculer le logarithme de cette expression au lieu de l'expression elle-même (et à condition d'utiliser l'approximation des factorielles par la formule de Stirling). On distingue deux cas :

Convergence vers la loi de Poisson[modifier | modifier le code]

Lorsque n tend vers l'infini et que simultanément p_n tend vers 0 de sorte que \lim_n\,np_n = a>0, la loi binomiale de paramètres n et p_n converge vers la loi de Poisson de paramètre a. En pratique, on remplace la loi binomiale par une loi de Poisson dès que n > 30 et np < 5 ou dès que n > 50 et p < 0.1.

Convergence vers la loi normale[modifier | modifier le code]

Pour n assez grand, la loi binomiale de paramètres n et p « se comporte comme » la loi normale d'espérance np et de variance npq. Plus précisément, le théorème de Moivre-Laplace précise que si \Phi est la fonction de répartition de la loi normale centrée réduite \mathcal{N}(0,1) et si Xn suit la loi binomiale de paramètres n et p, on a alors, pour tout réel t :

\lim_{n\to\infty}\mathbb{P} \left( \frac{X_n- np}{\sqrt{npq}}\leq t \right) = \Phi(t).

Le théorème de Berry-Esseen fournit une majoration de l'erreur commise quand on remplace \mathbb{P}(X_n \le x) par \mathbb{P}(Y_n \le x) Yn suit la loi normale d'espérance np et de variance npq : l'erreur commise est inférieure à \scriptstyle \frac C{\sqrt{npq}}C < 0,4784. En pratique, on remplace une loi binomiale par une loi normale pour n grand et p pas trop proche de 0 ni de 1 (par exemple pour n>30, np>5 et nq>5 ou pour npq >9).

Loi des grands nombres[modifier | modifier le code]

La loi binomiale, son espérance et sa variance, ainsi que l'inégalité de Bienaymé-Tchebychev permettent de démontrer une version simple de la loi des grands nombres.

Rapport avec la loi de Fisher[modifier | modifier le code]

Le système de probabilités de la loi binomiale et la densité de la loi de Fisher s'écrivent sous des formes similaires :

\begin{align}
\text{Fisher : } f(x) = & \frac{\Gamma(d_1/2 + d_2/2)}{x \Gamma(d_1/2)\Gamma(d_2/2)} & \times
   & \left ( \frac{d_1 x}{d_1 x + d_2} \right )^{d_1/2} & \times
   & \left ( 1 - \frac{d_1 x}{d_1 x + d_2} \right )^{d_2/2} \\
\text{binomiale : } p(k) = & \frac{n !}{k ! (n-k) !} & \times
   & \mathrm{P}^k & \times
   & ( 1 - \mathrm{P})^{n - k} \\
\end{align}

en identifiant :

d1 = 2k
d2 = 2(n - k)
\mathrm{P} = \frac{d_1 x}{d_1 x + d_2}

On notera par ailleurs que la fonction gamma Γ prolonge la factorielle.

Références[modifier | modifier le code]

  1. Hamza, K. (1995). The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions. Statist. Probab. Lett. 23 21–25.
  2. (en) G. P. Wadsworth, Introduction to probability and random variables, New York, McGraw-Hill,‎ 1960, p. 52
  3. Émile Borel, « Les probabilités dénombrables et leurs applications arithmétiques », Rendiconti del Circolo Matematico di Palermo, vol. 27, no 1,‎ décembre 1909, p. 247-271 (ISSN 0009-725X et 1973-4409, lien DOI?, lire en ligne).

Voir aussi[modifier | modifier le code]

Lien externe[modifier | modifier le code]