Loi binomiale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Fairytale bookmark silver light.png Vous lisez un « bon article ».
Loi binomiale
Image illustrative de l'article Loi binomiale
Fonction de masse
Image illustrative de l'article Loi binomiale
Fonction de répartition

Paramètres n \geq 0
0\leq p \leq 1
q=1-p
Support k \in \{0,\dots,n\}\!
Fonction de masse {n\choose k} p^k q^{n-k} \!
Fonction de répartition I_{1-p}(n-\lfloor k \rfloor, 1+\lfloor k\rfloor) \!
Espérance np\!
Médiane \lfloor np\rfloor ou \lfloor np\rfloor+1
Mode \lfloor(n+1)\,p\rfloor\!
Variance npq\!
Asymétrie \frac{q-p}{\sqrt{npq} }\!
Kurtosis normalisé 3+\frac{1-6pq}{npq}\!
Entropie  \frac{1}{2} \ln \left(2 \pi n e p q \right) + O \left(\frac{1}{n} \right)
Fonction génératrice des moments (q + pe^t)^n \!
Fonction caractéristique (q + pe^{it})^n \!

En théorie des probabilités et en statistique, la loi binomiale modélise le nombre de succès obtenus lors de la répétition indépendante de plusieurs expériences aléatoires identiques. Une manière visuelle de représenter cette suite d'expériences est d'utiliser un arbre de probabilité : à chaque génération de l'arbre, deux branches partent de chaque nœud, une pour le succès et une pour l'échec.

Plus mathématiquement, cette loi de probabilité discrète est décrite par deux paramètres : n le nombre d'expériences réalisées et p la probabilité de succès. Pour chaque expérience appelée épreuve de Bernoulli, on utilise une variable aléatoire qui prend la valeur 1 lors d'un succès et la valeur 0 sinon. La variable aléatoire, somme de toutes ces variables aléatoires, compte le nombre de succès et est de loi binomiale. Il est alors possible d'obtenir la probabilité de k succès dans une répétition de n expériences :

\mathbb{P}(X = k)= {n \choose k} \, p^k (1-p)^{n-k}.

Cette formule fait intervenir le coefficient binomial \scriptstyle {n\choose k} duquel provient le nom de la loi.

L'importance de cette loi est d'abord historique puisqu'elle a été l'objet d'étude du théorème de Moivre-Laplace, résultat du xviiie siècle fondateur des théorèmes de convergence. La loi a également son utilité pour modéliser des situations simples de succès ou échec, un jeu de pile ou face par exemple. Le calcul de sa fonction de masse devient rapidement fastidieux lorsque n est grand, il est alors possible d'utiliser des approximations par d'autres lois de probabilité telles que la loi de Poisson ou la loi normale et d'utiliser des tables de valeurs.

La loi binomiale est utilisée dans divers domaines d'étude, notamment à travers des tests statistiques qui permettent d'interpréter des données et de prendre des décisions dans des situations dépendant de l'aléa. De par la simplicité de sa définition, c'est l'une des lois de probabilité étudiées dans les cours d'introduction à la théorie des probabilités.

Définition intuitive[modifier | modifier le code]

arbre de probabilité
Arbre de probabilité pour une loi binomiale associée à 3 épreuves de Bernoulli.

La loi de Bernoulli décrit le comportement d'un évènement aléatoire qui possède deux résultats possibles traditionnellement appelés succès et échec[1]. Une telle expérience s'appelle une épreuve de Bernoulli. Par exemple, lors d'un lancer de pile ou face, on peut considérer qu'obtenir face est un succès et obtenir pile est un échec. Dans ce modèle, la probabilité de succès est une valeur fixe, c'est-à-dire qui reste constante à chaque renouvellement de l'expérience aléatoire.

On considère la situation où une telle expérience aléatoire (deux résultats possibles et une probabilité fixe) est répétée un certain nombre de fois de manière indépendante ; notons n ce nombre de fois. Cette répétition indépendante d'épreuves de Bernoulli s'appelle un schéma de Bernoulli ou simplement des épreuves de Bernoulli[2]. La loi binomiale décrit le nombre de fois où le succès apparaît sur les n expériences effectuées. Le nombre de succès obtenus étant une valeur aléatoire, la loi binomiale est décrite grâce à la donnée des probabilités que le succès apparaisse précisément k fois sur les n essais.

Une manière visuelle de trouver ces probabilités est de construire un arbre de probabilité (voir ci-contre). Chaque épreuve est représentée par deux branches : l'une pour le succès, l'autre l'échec. À chaque extrémité, on rajoute deux branches (succès et échec) pour l'épreuve suivante. On recommence jusqu'au nombre total d'épreuves. À chaque extrémité finale, on peut compter le nombre de succès obtenus. Il suffit de multiplier le nombre de fois où il y a k succès par la probabilité d'obtenir k succès pour obtenir la probabilité correspondante de la loi binomiale.

Par exemple, on lance 3 fois de suite un dé équilibré à six faces et on s'intéresse au nombre de fois que le 1 apparaît. Il apparaît 0, 1, 2 ou 3 fois. Chaque lancer est indépendant des autres et la probabilité d'obtenir le 1 est de 1/6 sur chacun d'entre eux, autrement dit la probabilité qu'il n'apparaisse pas est de 5/6 à chaque lancer. Ainsi, pour chaque lancer, on considère une loi de Bernoulli de paramètre 1/6. Il y a trois configurations pour obtenir une seule fois le 1 : il apparaît au premier lancer ou au deuxième ou au troisième. Chacune de ces issues a la même probabilité d'apparaître : \scriptstyle \frac{1}{6} \times \frac{5}{6} \times \frac{5}{6}. La probabilité pour avoir une fois le 1 est alors : \scriptstyle 3\times \frac{1}{6} \times \frac{5}{6} \times \frac{5}{6}. On retrouve bien \scriptstyle \mathbb P(X=1)={3\choose 1} \left(1/6\right)^1\left(5/6\right)^{3-1} pour une loi binomiale b(3, 1/6). Il est possible de retrouver les autres probabilités de la même façon.

Définition mathématique[modifier | modifier le code]

La loi binomiale est une loi de probabilité discrète[3] à deux paramètres : \scriptstyle n\in \mathbb N^* et \scriptstyle p\in[0;1]. Il est fréquent d'utiliser également le paramètre q = 1 – p pour avoir des expressions plus concises. Plusieurs définitions équivalentes sont utilisées pour la loi binomiale.

fonctions de masse de la loi binomiale
Diagrammes en bâtons de trois fonctions de masse de lois binomiales. Les paramètres sont n = 20 et p = 0,1 (en bleu), p = 0,5 (en vert) et p = 0,8 (en rouge).

Définition 1[4],[1] — La loi binomiale, de paramètres n et p, est la loi de probabilité d'une variable aléatoire X égale au nombre de succès rencontrés au cours d'une répétition de n épreuves de Bernoulli, p étant la probabilité de succès dans chacune d'entre elles.

Définition 2[5] — La loi binomiale, de paramètres n et p, est la loi de probabilité d'une variable aléatoire X telle que :

X=Y_1+Y_2+\dots +Y_n,

\scriptstyle Y_1,Y_2,\dots ,Y_n, sont des variables aléatoires indépendantes de loi de Bernoulli de même paramètre p.

Définition 3[3] — La loi binomiale, de paramètres n et p, est la loi de probabilité discrète d'une variable aléatoire X dont la fonction de masse est donnée par :

\mathbb P(X=k)={n\choose k}p^kq^{n-k} pour \scriptstyle k=0,1 \dots ,n.

On rappelle que des variables aléatoires \scriptstyle Y_1 et \scriptstyle Y_2 de loi discrète sont indépendantes si \scriptstyle \mathbb P(Y_1=k,Y_2=h)=\mathbb P(Y_1=k)\mathbb P(Y_2=h).

La fonction de masse donnée dans la définition 3 a bien un sens puisque la formule du binôme de Newton donne[6] : \scriptstyle \sum_{k=0}^n \mathbb P(X=k)=\sum_{k=0}^n{n\choose k}p^kq^{n-k}=(p+1-p)^n=1. La définition 2 est l'écriture mathématique de la définition 1[7].

La définition 3 est équivalente aux deux autres : on calcule explicitement la probabilité que k succès apparaissent dans n essais. Puisque les n répétitions sont indépendantes, la probabilité d'obtenir k succès et donc n – k échecs est : \scriptstyle p^k(1-p)^{n-k}, dans le cas où on ne tient pas compte de la place des résultats[5],[8]. Il suffit alors de s'intéresser à la place des k succès et n – k échecs. C'est-à-dire, combien y a-t-il de manière de placer k succès parmi n résultats (sans s'occuper de l'ordre entre les succès) ? C'est le nombre de combinaisons de k éléments parmi n éléments[9] donné par le coefficient binomial \scriptstyle {n\choose k}. On retrouve alors la fonction de masse de la définition 3.

Notation

Un variable aléatoire X qui suit une loi binomiale de paramètres n et p est notée[3],[5] : \scriptstyle X\sim b(n,p) ; \scriptstyle X\sim B(n,p) ou \scriptstyle X\sim Bi(n,p).

Mesure de probabilité

Puisque la loi binomiale b(n, p) est une loi discrète, il est possible de la définir grâce à sa mesure de probabilité[10] :

\mathbb P = \sum_{k=0}^n {n\choose k}p^kq^{n-k}\delta_k , où \scriptstyle \delta_k est la mesure de Dirac au point k.

Historique[modifier | modifier le code]

Schéma constitué de formes géométriques
La planche de Galton : les billes rouges (les points rouges sur la figure) empilées dans le bas de l'appareil correspondent à la fonction de masse de la loi binomiale, la courbe bleue correspond à la densité de la loi normale.

La loi binomiale fait partie des plus anciennes lois de probabilités étudiées[3]. Elle a été introduite par Jacques Bernoulli qui y fait référence en 1713 dans son ouvrage Ars Conjectandi. Entre 1708 et 1718, la loi multinomiale (généralisation multi-dimensionnelle de la loi binomiale), la loi binomiale négative ainsi que l'approximation de la loi binomiale par la loi de Poisson, la loi des grands nombres pour la loi binomiale et une approximation de la queue de la loi binomiale sont découvertes[11].

Grâce à l'expression de sa fonction de masse, la loi binomiale a été utilisée par plusieurs scientifiques pour réaliser des calculs dans des situations concrètes. C'est le cas d'Abraham de Moivre[a 1] qui réussit à trouver une approximation de la loi binomiale par la loi normale, il publie d'abord ses résultats en 1733 en latin[12] : Approximatio ad summam terminorum binomii (a + b)n in seriem expansi, puis les traduit pour les publier en 1738 dans The Doctrine of Chances (en)[12]. En 1812, Pierre-Simon de Laplace reprend ces travaux. Francis Galton crée la planche de Galton qui permet d'avoir une représentation physique de cette convergence[a 1]. En 1909, Émile Borel énonce et prouve, dans le cas de la loi binomiale, la première version de la loi forte des grands nombres[13].

Plus récemment, en 1914, McKendrick (en) démontre que la loi binomiale est la solution d'un processus simple de naissance et d'émigration (en)[14]. D'après les travaux de William Feller en 1957, elle peut aussi être vue comme la loi stationnaire pour le modèle des urnes d'Ehrenfest. Cette même année, Haight montre que la loi binomiale est liée à un problème de file d'attente[14].

La loi binomiale apparaît dans de nombreuses applications au XXe siècle[15] : en génétique, en biologie animale, en écologie végétale, pour les tests statistiques, dans différents modèles physiques tels que des réseaux téléphoniques[16] ou le modèle des urnes d'Ehrenfest, etc.

Le nom « binomiale » de cette loi provient[7],[a 1] de l'écriture de sa fonction de masse (voir ci-dessous) qui contient un coefficient binomial issu du développement du binôme : (p + q)n.

Représentation sous la forme d'un arbre[modifier | modifier le code]

Article détaillé : Arbre de probabilité.
Représentation de la loi binomiale sous forme d'un arbre.

Puisque la loi binomiale est une suite d'épreuves de Bernoulli, il est possible de la représenter grâce à un arbre de probabilité : chaque nœud représente le résultat d'une épreuve, les probabilités de succès et d'échecs sont représentés par deux branches distinctes rattachées à un nœud. Le graphique est donc un arbre binaire équilibré. Un arbre contenant n générations correspond à une loi binomiale b(n, p).

Si on indique les résultats de chaque épreuve sur les arêtes de l'arbre, il est possible de visualiser les différentes issues de la loi binomiale[17]. Si ce sont les valeurs des probabilités qui sont indiquées sur les arêtes, alors les probabilités de la loi binomiale apparaissent au bout des branches[18] (voir le graphique ci-contre).

Le graphique est un arbre de probabilité pour une loi binomiale de paramètre n = 3. Sur chaque branche sont indiquées les probabilités des différentes issues : par exemple branches droite, gauche puis droite ; c'est-à-dire échec, succès puis échec. Au bout des branches de l'arbre, apparaissent les probabilités de chaque issue de la loi binomiale b(3, p). C'est-à-dire pour les valeurs k = 0, 1, 2 ou 3, on obtient \scriptstyle \mathbb P(X=0)=q^3, \scriptstyle \mathbb P(X=1)=3pq^2, \scriptstyle \mathbb P(X=2)=3qp^2 et \scriptstyle \mathbb P(X=3)=p^3. On retrouve ainsi les différents coefficients binomiaux : \scriptstyle {3 \choose 0} = 1 \text{ ; } {3 \choose 1} = 3 \text{ ; } {3 \choose 2} = 3 \text{ ; } {3 \choose 3} = 1 \text{.}

Propriétés[modifier | modifier le code]

Moments[modifier | modifier le code]

Les moments factoriels (en) de la loi binomiale de paramètres n et p sont[a 2],[a 3] :

\mathbb E\left[(X)_k\right]=\tfrac{n!}{(n-k)!}~p^k.

Par conséquent[19], ses moments ordinaires sont[20] :

\mu'_r=\mathbb E(X^r)=\sum_{k=0}^r\tfrac{n!}{(n-k)!} S(r, k) pk, avec comme premières valeurs[21] :

\scriptstyle \mu'_1=\mathbb E(X)= \scriptstyle np (espérance)
\scriptstyle \mu'_2=\mathbb E(X^2)= \scriptstyle np+n(n-1)p^2
\scriptstyle \mu'_3=\mathbb E(X^3)= \scriptstyle np+3n(n-1)p^2+n(n-1)(n-2)p^3

On peut aussi les obtenir par la formule de récurrence

\mu'_{r+1}=pq\left(\frac nq\mu'_r+\frac{{\rm d}\mu'_r}{{\rm d}p}\right),

où le terme \scriptstyle \frac{\rm d}{{\rm d}p} désigne la dérivée par rapport à la variable p.

Les moments inverses, c'est-à-dire \scriptstyle \mathbb E(X^{-r}) avec \scriptstyle r\in \mathbb N^*, sont infinis[22].

Moments centrés

Les moments centrés sont les moments de la différence entre la variable et sa moyenne[23],[21].

\scriptstyle \mu_2 = Var(X) = \mathbb E\left((X-np)^2\right)= \scriptstyle npq \;  ; (variance)
\scriptstyle \mu_3 = \mathbb E\left((X-np)^3\right)= \scriptstyle np(1-p)(1-2p)=npq(q-p)
\scriptstyle \mu_{r}=\mathbb E((X-np)^r)= \scriptstyle npq\sum_{k=0}^{r-2}{r-1\choose k}\mu_k - p\sum_{k=0}^{r-2}{r-1\choose k}\mu_{k+1}

L'expression de la variance donne l'écart type[24] : \scriptstyle\sigma_{X} = \sqrt{np(1-p)}.

Les moments centrés se calculent aussi par récurrence[a 4],[21] :

\mu_{r+1}=pq\left(nr\mu_{r-1}+\frac{{\rm d}\mu_r}{{\rm d}p}\right).

Déviation moyenne

La déviation moyenne est la moyenne de l'écart à la moyenne ; elle est donnée par[22] :

 \mathbb E(|X-np|)=2n{n-1\choose \lfloor np\rfloor} p^{\lfloor np\rfloor+1}q^{n-\lfloor np\rfloor},

\scriptstyle \lfloor np\rfloor est la partie entière de np.

Fréquence de succès

Grâce aux formules précédentes, on obtient les moments de la fréquence des succès[24] : \scriptstyle \frac{X}{n} :

moment d'ordre 1 (ou espérance) de la fréquence de succès \scriptstyle \mathbb E\left(\frac{X}{n}\right)= \scriptstyle p
moment centré d'ordre 2 (ou variance) de la fréquence de succès \scriptstyle \mathbb E\left((\frac{X}{n}-p)^2\right)= \scriptstyle \frac{p(1-p)}{n}=\frac{pq}{n}
moment centré d'ordre 4 de la fréquence de succès \scriptstyle \mathbb E\left((\frac{X}{n}-p)^4\right)= \scriptstyle \frac{pq(1-6pq)}{n^3}+3\frac{p^2q^2}{n^2}

L'expression de la variance de la fréquence donne l'écart type de la fréquence des succès : \scriptstyle\sigma_{X/n} =\sqrt{\frac{p(1-p)}{n}}=\frac{\sqrt{pq}}{\sqrt{n}}.

Covariance

On considère deux variables aléatoires \scriptstyle X_1 et \scriptstyle X_2, pas forcément indépendantes, de lois binomiales respectives \scriptstyle b(n,p_1) et \scriptstyle b(n,p_2). La covariance permet d'évaluer la dépendance entre les deux variables :

 Cov(X_1,X_2)= n\mathbb P(X_1=1 \text{ et }X_2=1) -np_1p_2.

Propriétés et caractérisations[modifier | modifier le code]

Valeurs descriptives de la loi
  • Le coefficient d'asymétrie d'une loi binomiale b(n, p) est [25] : \scriptstyle\gamma = \frac{q-p}{\sqrt{npq}}. L'asymétrie de la loi binomiale b(n, p) est positive[26] si p < 1/2 et négative si p > 1/2. La loi est symétrique si et seulement si p = 1/2.
  • La médiane de la loi binomiale est \scriptstyle m=\lfloor np\rfloor ou \scriptstyle m=\lfloor np\rfloor+1, le signe \scriptstyle \lfloor .\rfloor désigne la partie entière. Ces valeurs s'obtiennent grâce à la formule[a 5] : \scriptstyle |m-np|<\ln(2) (cette borne étant optimale).
  • Le mode de la loi binomiale b(n, p) est la valeur \scriptstyle \lfloor(n+1)p\rfloor, elle est la valeur de plus grande probabilité.

Si np est un entier, alors le mode, la moyenne et la médiane valent tous trois np.

Propriétés de stabilité
  • Si X suit une loi binomiale b(n, p), alors[5] Y = n – X suit une loi b(n, 1 – p). Cette symétrie donne les relations suivantes pour la fonction de répartition et pour la fonction de masse[27],[28] : \scriptstyle \mathbb P(X\leq k)=\mathbb P(Y\geq n-k) et \scriptstyle \mathbb P(X = k)=\mathbb P(Y = n-k).
  • Si les variables aléatoires \scriptstyle X_1 et \scriptstyle X_2 sont de lois binomiales respectives \scriptstyle b(n_1,p) et \scriptstyle b(n_2,p), alors la variable aléatoire \scriptstyle X_1+X_2 est de loi binomiale \scriptstyle b(n_1+n_2,p). Cette propriété peut s'obtenir grâce à l'expression des fonctions caractéristiques ou grâce à l'écriture sous forme de somme de variables de Bernoulli[29].
Inégalités
\mathbb P\left(\left| \frac{X}{n}-p  \right|>x \right) \leq \frac{p(1-p)}{nx^2}
  • L'inégalité de Hoeffding pour une variable aléatoire X de loi b(n, p) est plus précise que l'inégalité de Bienaymé-Tchebychev lorsque x est grand, elle s'écrit[30] :
\mathbb P\left(\left| \frac{X}{n}-p  \right|>x \right) \leq 2e^{-2nx^2}.
  • L'inégalité de Kolmogorov s'écrit pour une somme de variables aléatoires indépendantes. Pour des variables aléatoires indépendantes \scriptstyle X_1,X_2\dots,X_n de loi de Bernoulli, la somme \scriptstyle Y_k=\sum_{i=1}^k X_i-kn suit une loi binomiale b(k, p) recentrée, l'inegalité s'écrit alors[31] :
\mathbb P\left(\sup\left(\left| Y_k\right|\, ; \, k=1,\dots,n \right)  >\varepsilon \right) \leq \frac{np(1-p)}{\varepsilon^2}.
Caractérisations
  • En 1964, un cas particulier d'un théorème de Patil et Seshadri énonce[32] : si la loi conditionnelle de X + Y sachant X est une loi hypergéométrique de paramètres m et n, alors X et Y suivent des lois binomiales de paramètres respectifs \scriptstyle (m,\theta) et \scriptstyle (n,\theta)\scriptstyle \theta est arbitraire.
  • En 1973, Kagan, Linnik et Rao donnent plusieurs caractérisations en considérant des marches aléatoires à pas binomiaux sur un réseau avec des temps d'arrêt markoviens[32].
  • En 1991, Ahmed démontre qu'une variable aléatoire X suit une loi binomiale variable aléatoire b(n, p) si et seulement si[32] \scriptstyle \mathbb E(X|X>k)=np+qkh_k\scriptstyle h_k=\mathbb P(X=k)/\sum_{i=k}^np_i.

Fonction de répartition[modifier | modifier le code]

Graphique de 3 fonctions de répartition de lois binomiales avec paramètres : n = 20 et p = 0,1 (en bleu), p = 0,5 (en vert) et p = 0,8 (en rouge).

La fonction de répartition d'une variable aléatoire X suivant la loi binomiale b(n, p) est donnée par[23] :

 F(x)=\mathbb P(X\leq x) = \begin{cases} 1 & si\; x\geq n\\ \displaystyle \sum_{k=0}^{\lfloor x\rfloor}{n\choose k} p^k(1-p)^{n-k}  & si\; 0\leq x < n\\ 0 & si \; x< 0 \end{cases}

\scriptstyle \lfloor x\rfloor est la partie entière de x.

Même s'il existe une expression de la fonction de répartition, son calcul n'est pas facile[33] à cause des coefficients binomiaux \scriptstyle {n\choose k}, notamment lorsque n est grand. Il existe alors des tables de valeurs (voir ci-dessous). Des théorèmes d'approximation ont été développés[33] pour approcher de manière théorique et calculatoire cette fonction de répartition (voir ci-dessous). L'expression suivante provient du lien entre la loi binomiale et la loi bêta[23] (voir ci-dessous) : pour \scriptstyle 0\leq x < n

 F(x)= \frac{1}{B\left(\lfloor x\rfloor+1,n-\lfloor x\rfloor \right)} \int_p^1 t^{\lfloor x\rfloor} (1-t)^{n-\lfloor x\rfloor-1}{\rm d}t

B est la fonction bêta. il est alors possible d'écrire la fonction de répartition grâce à la fonction bêta incomplète[34] :

 F(x)= I_{1-p}(n-\lfloor x \rfloor, 1+\lfloor x\rfloor).

Fonctions caractéristique et génératrice[modifier | modifier le code]

La fonction caractéristique d'une variable aléatoire X suivant la loi binomiale b(n, p) est donnée par[24] :

\phi(t)=\mathbb E\left(e^{itX}\right)=\left(q+pe^{it}\right)^n\;,\; \forall t\in \R.

La fonction génératrice des moments d'une variable aléatoire X suivant la loi binomiale b(n, p) est donnée par[23] :

M(t)=\mathbb E\left(e^{tX}\right)=\left(q+pe^t\right)^n\;,\; \forall t\in\R.

On déduit directement la fonction génératrice des cumulants[14] :

\ln(M(t))=n\ln\left(q+pe^t\right)\;,\; \forall t\in \R,

et la fonction génératrice des cumulants factoriels[14] :

\ln\left(\mathbb E\left[(1+t)^X\right]\right)=n\ln\left(1+pt\right)\;,\; \forall t\in \R_+.

Lien avec d'autres lois[modifier | modifier le code]

Loi de Bernoulli

Rappelons que la loi binomiale de paramètres \scriptstyle n\in \mathbb N^* et \scriptstyle p\in [0,1] est la loi de la somme de n variables aléatoires indépendantes de loi de Bernoulli de même paramètre p.

Ainsi, la loi binomiale b(1, p) est une loi de Bernoulli de paramètre p.

C'est par cette représentation du nombre de succès et d'échecs dans une suite d'épreuves que la loi binomiale est source de nombreuses applications[35].

Lois réciproques

Les lois suivantes ont un lien avec la loi binomiale grâce à leur fonctions de répartition. Lorsque le nombre de succès k est fixé, elles donnent la loi du nombre d'épreuves nécessaires (loi binomiale négative) ou la loi du paramètre p (lois bêta ou de Fisher). En ce sens, elles peuvent servir de lois réciproques.

  • La loi binomiale b(n, p) donne le nombre de succès dans une succession de n épreuves indépendantes. La loi binomiale négative, ou loi de Pascal, \scriptstyle Pa(k,p) est le nombre d'épreuves nécessaires pour obtenir k succès[36]. le terme négatif provient de l'écriture de la fonction de masse qui contient un coefficient binomial avec un terme négatif[a 6].
    De plus, si X suit une loi \scriptstyle Pa(k,p) et si Y suit une loi b(n + k, p) alors[37],[38], pour k entre 0 et n :
    \mathbb P(Y\leq k)= 1-I_p(k,n+1) = \mathbb P(X\geq n) , où \scriptstyle I_p est la fonction bêta incomplète. Autrement dit : la probabilité qu'il faille moins de n épreuves pour avoir k succès est égale à la probabilité qu'il y ait au moins k succès en n + k épreuves.
  • Grâce au calcul de la fonction de répartition de la loi bêta donnée par la fonction bêta incomplète \scriptstyle I_p, on obtient[a 6],[28], pour k entre 0 et n :
\mathbb P(Y\leq k)= 1-I_p(k+1,n-k) = \mathbb P(X \geq p)X suit une loi bêta de paramètres k + 1 , n – k et Y suit une loi binomiale b(n, p).
  • La loi binomiale est liée à la loi de Fisher par la propriété suivante[a 6],[39] : si Y suit une loi binomiale b(n, p) alors, pour k entre 0 et n :
\mathbb P(Y \le k) = \mathbb P(F> \frac{\nu_2}{\nu_1}\cdot\frac{p}{1-p})F suit une loi de Fischer de paramètres \nu_1=2(k+1)\, , \, \nu_2=2(n-k).
La relation précédente permet de trouver les quantiles de la loi binomiale[39].
Autres lois
  • La loi binomiale (doublement) tronquée de paramètres \scriptstyle n,p,r_1 et \scriptstyle r_2 est la loi binomiale b(n, p) avec \scriptstyle r_1<n-r_2 telle que les valeurs dans \scriptstyle [0,r_1[ et dans \scriptstyle ]n-r_2,n] sont enlevées[40]. La fonction de masse de cette loi est donnée par l'expression : pour \scriptstyle k=r_1,\dots n-r_2
\mathbb P(X=k)={n\choose k}p^kq^{n-k}/\sum_{i=r_1}^{n-r_2} {n\choose i}p^iq^{n-i}.
De la même manière, il est possible de définir la loi binomiale (simplement) tronquée[40] en omettant uniquement les valeurs entre 0 et \scriptstyle r_1 ou entre \scriptstyle n-r_2 et \scriptstyle n.
  • La loi binomiale positive ou loi binomiale tronquée en 0 est la loi binomiale b(n, p) dont on retire la valeur 0. Sa fonction de masse est : \scriptstyle \mathbb P(X=k)={n\choose k}\frac{p^kq^{n-k}}{1-q^n}. De la même manière il est possible de définir la loi binomiale négative.
  • La loi multinomiale est la généralisation multi-dimensionnelle de la loi binomiale[23] dans le sens où la loi multinomiale modélise une succession d'épreuves dont chacune possède plusieurs issues, pas uniquement succès ou échec. Cette loi multidimensionnelle donne les probabilités du nombre d'apparition des différentes issues dans une succession d'épreuves indépendantes[a 6].
  • La loi bêta-binomiale est construite grâce à un mélange de loi[41] : une variable aléatoire qui suit une loi binomiale \scriptstyle b(n,\pi) dont le paramètre \scriptstyle \pi est une variable aléatoire qui suit une loi bêta  \scriptstyle  B(\alpha,\beta), est de loi bêta-binomiale de paramètres \scriptstyle n,\alpha,\beta. Cette loi binomiale est similaire à la loi hypergéométrique négative (en), il suffit de changer les paramètres[42].
  • La fonction de masse d'une variable Y de loi hypergéométrique de paramètres \scriptstyle A,p=1-q,n est donnée par : \scriptstyle \mathbb P(Y=k)=\frac{{k\choose pA}{n-A\choose qA}}{{n\choose A}}. Elle correspond au nombre tirages gagnants dans une expérience de n tirages simultanés dans une urne contenant A boules et une proportion de p boules gagnantes.
Si le nombre de boules augmente, c'est-à-dire A tend vers l'infini, et si p/A tend vers une valeur \scriptstyle p'\in [0,1], alors la loi hypergéométrique converge vers une loi binomiale[43] b(n, p').
Autrement dit, si la taille de la population (A) est grande par rapport à la taille de l'échantillon (n), alors les tirages peuvent être convenablement représentés par une loi binomiale de paramètre p' égal au pourcentage (p) d'éléments ayant la caractère étudié.
De plus, si \scriptstyle X_1 et \scriptstyle X_2 sont deux variables aléatoires indépendantes de loi binomiale respectives \scriptstyle b(n_1,p) et \scriptstyle b(n_2,p), alors la loi de \scriptstyle X_1 sachant que \scriptstyle X_1+X_2=k est la loi hypergéométrique de paramètres[29] : \scriptstyle k, \frac{n_1}{n_1+n_2} et \scriptstyle n_1+n_2.

Convergences et approximations[modifier | modifier le code]

Pour de grandes valeurs de n, le calcul des fonctions de masse et de répartition deviennent vite fastidieux. Une méthode est d'approcher ces valeurs grâce aux théorèmes limites. La loi (faible ou forte) des grands nombres permet d'approcher la moyenne de la loi binomiale. Pour obtenir des valeurs approchées de la fonction de répartition, il est possible d'utiliser l'approximation normale ou l'approximation par la loi de Poisson. L'approximation normale est plus performante lorsque le paramètre p n'est pas trop proche de 0 ou de 1, sinon l'approximation par la loi de Poisson donne de meilleurs résultats[44].

Loi des grands nombres[modifier | modifier le code]

Article détaillé : loi des grands nombres.

La loi faible des grands nombres, appliquée à un processus de Bernoulli de paramètre p, garantit que pour toute suite (Xn) de variables aléatoires, définies sur un même espace probabilisé, et de lois respectives b(n, p) (cf. définition 2 ci-dessus), on a, pour tout \scriptstyle \varepsilon>0 : \lim_{n \to +\infty} \mathbb{P}\left(\left|\frac{X_n}n-p\right|<\varepsilon\right)=1. Plus précisément, puisque l'espérance et la variance de Xn sont respectivement égales à np et np(1 – p), l'inégalité de Bienaymé-Tchebychev montre que[24] : \mathbb{P}\left(\left|\frac{X_n}n-p\right|>\varepsilon\right)<\frac{p(1-p)}{n\,\varepsilon^2}. Cela peut s'interpréter grossièrement de la manière suivante. Si l'on sait que lors d'une expérience aléatoire (tirage d'un individu dans une population de grande taille, lancer d'une pièce…) la probabilité d'apparition de la propriété A est p(A), alors la fréquence d'apparition de la propriété A au cours de n expériences de ce type (tirages de n individus dans une population de taille très supérieure à n, n lancers de pièce…) est souvent voisine de p(A), avec une probabilité d'autant meilleure que n est grand et que p(A) est proche de 0 ou 1.

Convergence vers la loi de Poisson[modifier | modifier le code]

Convergence

Considérons une loi binomiale b(n, p) telle que les paramètres n et p sont liés par la formule : \scriptstyle np=\lambda>0\scriptstyle \lambda est fixé. Lorsque n tend vers l'infini, et donc p tend vers 0, alors[45] : \scriptstyle \lim_{n\rightarrow +\infty} {n\choose k}p^kq^{n-k} = e^{-\lambda}\frac{\lambda^k}{k!}. Autrement dit, la probabilité qu'une variable de loi binomiale prenne la valeur k converge (lorsque n devient grand) vers la probabilité qu'une variable de loi de Poisson prenne la valeur k. Le paramètre p converge alors vers 0, il correspond donc à un évènement de probabilité très faible, la loi de Poisson est alors appelée loi des évènements rares[45]. Par sommation, on obtient alors le résultat[46] :

\lim_{n\rightarrow +\infty}\mathbb P(X\leq x)=\lim_{n\rightarrow +\infty}\sum_{k=0}^{\lfloor x\rfloor} {n\choose k}p^kq^{n-k} =  e^{-\lambda}\sum_{k=0}^{\lfloor x\rfloor}\frac{\lambda^k}{k!}=\mathbb P(Y\leq x)

\scriptstyle \lfloor \cdot\rfloor est la partie entière, X est une variable de loi binomiale et Y de loi de Poisson \scriptstyle \mathcal P(\lambda). Cette limite montre la convergence en loi de la loi binomiale (avec les conditions précédentes) vers la loi de Poisson. Une expression plus détaillée de la convergence peut être donnée par la formule[47],[23] : \scriptstyle \mathbb P(X\leq x) = e^{-\lambda}\sum_{k=0}^{\lfloor x\rfloor}\frac{\lambda^k}{k!}+\mathcal O(\frac{1}{n^2}) avec \scriptstyle \lambda = \frac{(2n-\lfloor x\rfloor)p}{2-p} lorsque n tend vers l'infini et \scriptstyle \mathcal O(\cdot) est le comparateur asymptotique.

Fonctions de masse d'une loi binomiale \scriptstyle b(24\,;\,0,5) (en violet), \scriptstyle b(60\,;\,0,2) (en rouge) et d'une loi de poisson \scriptstyle \mathcal P(12) (en bleu).

En 1953, Iouri Prokhorov donne une majoration de l'erreur totale d'approximation entre la fonction de répartition d'une loi binomiale b(n, p) et une loi de Poisson \scriptstyle \mathcal P(np)[48] : \scriptstyle  \sum_{k=0}^{+\infty}\left|{n\choose k}p^kq^{n-k}-\frac{e^{-np}(np)^k}{k!}\right| \leq \min (2np^2,3p) . Il est également possible de borner le ratio entre les deux fonctions de répartition[48] : \scriptstyle e^{np}\left(1-\frac{k}{n}\right)^k q^n  \leq  \frac{{n\choose k}p^kq^{n-k}}{e^{-np}(np)^k/k!} \leq e^{np} q^{n-k}.

Approximation

Grâce à la convergence ci-dessus, il est possible d'approcher les probabilités de la loi binomiale par la loi de Poisson. En pratique, le cas s'applique lorsque n est grand et donc p petit. Différentes valeurs sont proposées[47],[45],[49],[50] :

  • \scriptstyle p<0,4, lorsque \scriptstyle n=3 (ce qui fait \scriptstyle np<1,2) ;
  • \scriptstyle p<0,3, lorsque \scriptstyle n=30 (ce qui fait \scriptstyle np<9) ;
  • \scriptstyle p<0,2, lorsque \scriptstyle n=300 (ce qui fait \scriptstyle np<60) ;
  • \scriptstyle 0<np<10 ;
  • \scriptstyle p<0,1, lorsque \scriptstyle n\geq 30 ;
  • \scriptstyle np\leq 10 et \scriptstyle n\geq 1500 p.

L'idée commune de toutes ces propositions est d'avoir la valeur np stable lorsque n est grand et p petit.

Convergence vers la loi normale[modifier | modifier le code]

Article détaillé : Théorème de Moivre-Laplace.
convergence de la loi binomiale
Illustration de la convergence de la fonction de masse de la loi binomiale vers la loi normale lorsque n grandit.
Convergence

Le théorème de Moivre-Laplace, énoncé en 1733, montre qu'une variable aléatoire de loi binomiale, convenablement renormalisée, converge en loi vers une variable aléatoire de loi normale. Ce résultat peut s'énoncer grâce aux fonctions de répartition des deux lois. Considérons une variable aléatoire X de loi binomiale b(n, p), la variable aléatoire X renormalisée est la variable aléatoire centrée et réduite, c'est-à-dire : \scriptstyle \frac{X-\mathbb E(X)}{\sigma_X}=\frac{X-np}{\sqrt{npq}}. Si l'on note \scriptstyle \Phi la fonction de répartition de la loi normale, alors :

Théorème de Moivre-Laplace : pour tout \scriptstyle x\in \mathbb R , \lim_{n\to+\infty}\mathbb{P} \left(\frac{X- np}{\sqrt{npq}}\leq x \right) =\frac{1}{\sqrt{2\pi}}\int_{-\infty}^x e^{-\frac{t^2}{2}}{\rm d}t = \Phi(x).

Bien qu'Abraham de Moivre n'ait énoncé ce résultat que dans le cas d'une loi binomiale[51], cette convergence est généralisée dans le cas d'autres lois, c'est le théorème central limite. Ce théorème permet d'approcher une loi discrète par une loi continue, il est alors utile d'ajouter un coefficient, dit correction de continuité, afin d'améliorer les approximations futures (voir ci-dessous). La convergence précédente peut alors s'écrire sous forme d'équivalence lorsque n tend vers l'infini[52] : pour tout \scriptstyle a,b\in \mathbb R

\mathbb P\left(a \leq X \leq b\right) \approx \mathbb P\left(\frac{a-\frac{1}{2}-np}{\sqrt{npq}} \leq \frac{X-np}{\sqrt{npq}}\leq \frac{b+\frac{1}{2}-np}{\sqrt{npq}} \right) \operatorname{\sim}_{n\rightarrow +\infty} \Phi\left(\frac{b+\frac{1}{2}-np}{\sqrt{npq}}\right) - \Phi\left(\frac{a-\frac{1}{2}-np}{\sqrt{npq}}\right).

L'erreur commise par l'approximation est estimée par l'inégalité de Berry-Esseen dont la constante est régulièrement améliorée, elle fournit une borne de la différence entre les deux fonctions de répartition lorsque n est grand[53],[a 7], pour X une variable aléatoire de loi binomiale b(n, p) et Y de loi normale \scriptstyle \mathcal N(0,1) de fonction de répartition notée \scriptstyle \Phi : \scriptstyle \sup_{x\in \mathbb R}\left| \mathbb P\left(\frac{X-np}{\sqrt{npq}}\leq x \right) - \Phi(x) \right| \leq \frac{0,4748}{\sqrt{npq}}. Une expression plus détaillée de la convergence peut être donnée par la formule avec correction de continuité[23] : \scriptstyle \mathbb P(X\leq x) = \Phi\left(\frac{x-np+1/2}{\sqrt{npq}} \right)+\mathcal O(\frac{1}{\sqrt{n}}) uniformément pour toute variable x, lorsque n tend vers l'infini et où \scriptstyle \mathcal O(\cdot) est le comparateur asymptotique. D'autres approximations plus fines ont été étudiées[54], par exemple par Laplace (1820), Prokhorov (1953) ou Peizer et Pratt (en) (1968).

Approximation

Grâce aux théorèmes de convergence ci-dessus, lorsque n est grand, les probabilités de la binomiale renormalisée peuvent être approchées par les valeurs des probabilités de la loi normale. Il existe plusieurs règles sur les paramètres n et p pour que l'approximation soit valable[55],[50],[56],[57] :

  • \scriptstyle n>30, \scriptstyle np>5 et \scriptstyle nq>5 ;
  • \scriptstyle npq>9 ou \scriptstyle npq>18 ;
  • \scriptstyle np>9 et \scriptstyle p<1/2.

L'influence de ces paramètres sur l'approximation a été finement étudiée dans les années 1990, par exemple[55] : pour n fixé, l'erreur absolue minimale est atteinte pour p = 1/2 ; l'erreur absolue est inférieure à \scriptstyle 0,0212/\sqrt{npq}.

Tables de la loi binomiale[modifier | modifier le code]

Des tables de la fonction de masse et de la fonction de répartition de la loi binomiale ont été publiée en 1950 par le National Bureau of Standards puis en 1955 dans National of the Computation Laboratory et par Rao et al. en 1985[58].

Grâce aux relations de symétrie (voir ci-dessus), il suffit[27],[28] de donner des tables de valeurs pour \scriptstyle p\leq 0{,}5.

Valeurs de la fonction de masse[modifier | modifier le code]

Les tables de valeurs suivantes[49] donnent les valeurs de la fonction de masse de la loi binomiale b(n, p) pour différentes valeurs de n.

Exemples : Si X suit une loi \scriptstyle b(10\,;\,0,15), alors \scriptstyle \mathbb P(X=4)\simeq 0,0401. Si Y suit une loi \scriptstyle b(10\,;\,0,85), alors \scriptstyle \mathbb P(Y=4)=\mathbb P(X=6)\simeq 0,0012.


Valeurs de la fonction de répartition[modifier | modifier le code]

Les tables de valeurs suivantes[59] donnent les valeurs de la fonctions de répartition de la loi binomiale b(n, p) pour différentes valeurs de n.

Exemples : Si X suit une loi \scriptstyle b(10\,;\,0,15), alors \scriptstyle \mathbb P(X\leq 4)\simeq 0,9901. Si Y suit une loi \scriptstyle b(10\,;\,0,85), alors \scriptstyle \mathbb P(Y\leq 4)=\mathbb P(X\geq 6)=1-\mathbb P(X\leq 5)\simeq 1-0,9986=0,0014.

Tests et applications[modifier | modifier le code]

Tests[modifier | modifier le code]

D'une manière générale, un test statistique permet de rejeter, ou non, une hypothèse dite hypothèse nulle. L'idée principale est de prendre un échantillon et de vérifier si l'hypothèse est vraie pour chaque élément de l'échantillon. Si on considère que les éléments sont indépendants, on compte donc le nombre d'éléments vérifiant une propriété, il y a donc présence de la loi binomiale. On compare si la proportion observée est significativement éloignée de la probabilité théorique de la loi binomiale[60]. Ce test est appelé un test binomial. On peut utiliser aussi la loi normale lorsque la taille de l'échantillon est grand.

Il est possible d'effectuer un test statistique sur la conformité des valeurs des paramètres d'une loi de probabilité, notamment d'une loi binomiale, par rapport aux paramètres théoriques attendus pour la population étudiée[61]. Le test de conformité de l'indice de dispersion s'applique dans ce cas[62]. Cet indice de dispersion est le quotient de la somme des carrés des écarts et de la moyenne. Si \scriptstyle x_k,\,k=1\dots n sont les valeurs étudiées de moyenne notée \scriptstyle \bar{x} alors l'indice est : \scriptstyle \frac{1}{\bar{x}} \sum_{k=1}^n(x_k-\bar{x})^2. Grâce à une Loi du χ² ou une loi normale, le test rejette l'hypothèse de la valeur que prend le paramètre p de la loi binomiale[62].

Il est également possible de tester l'égalité de deux variables aléatoires de lois binomiales. Soient \scriptstyle X_1 et \scriptstyle X_2 deux variables aléatoires de lois respectives \scriptstyle b(n_1,p_1) et \scriptstyle b(n_2,p_2). On souhaite tester si \scriptstyle p_1=p_2=p, c'est l'hypothèse \scriptstyle H_0 du test. Par le théorème central limite, l'estimateur \scriptstyle \hat{p}_1=X_1/p_1 suit une loi normale \scriptstyle \mathcal N(p_1, p_1(1-p_1)/n_1) lorsque \scriptstyle n_1 est grand. Il en est de même avec \scriptstyle \hat{p}_2. En considérant l'hypothèse \scriptstyle H_0 vraie, on peut montrer que \scriptstyle Z=\frac{\hat{p}_1-\hat{p}_2}{\sqrt{p(1-p)(1/n_1+1/n_2)}} suit une loi normale centrée réduite[63]. On rejette alors l'hypothèse \scriptstyle H_0 au niveau de confiance 0,95 si \scriptstyle |Z|>1,96.

Autres applications[modifier | modifier le code]

Par définition la somme de variables aléatoires indépendantes de loi de Bernoulli suit une loi binomiale. Un exemple typique de phénomène suivant une loi de Bernoulli est le lancer d'une pièce pour un pile ou face[35]. Le nombre de succès, par exemple le nombre de fois où l'on obtient pile, suit donc une loi binomiale. De nombreuses situations peuvent être modélisées par cet exemple ce qui donne son importance à la loi[35].

En génétique, lors de la reproduction, chaque gène est composée de deux allèles qui sont issus des deux parents. Soit les deux allèles proviennent du même parent, soit chaque parent transmet un allèle. Il est alors possible de faire une liste de différents allèles et de noter ces deux cas. Le nombre d'allèles issus du même parent peut être modélisé par une variable aléatoire de loi binomiale[64]. Pour savoir s'il y a égale probabilité d'allèle de même provenance ou de provenance différente, on peut étudier un test statistique[64]. Inversement, pour simuler les allèles d'un individu, il est possible de simuler les fréquences des allèles par des variables aléatoires binomiales[65].

marche aléatoire
Exemple de marche aléatoire (renormalisée). La position de la marche suit une loi binomiale.

En linguistique, la loi binomiale est utilisée pour étudier la richesse du vocabulaire d'un texte[a 8]. C'est un outil quantitatif qui permet de mesurer la fréquence d'un mot dans un texte indépendamment de la longueur du texte. Plus précisément la méthode de Müller permet d'évaluer la richesse théorique du vocabulaire d'un texte grâce au vocabulaire d'un texte plus long, et ainsi comparer avec la richesse du vocabulaire du texte court en question. Techniquement, si \scriptstyle N_a est le nombre de mots d'un texte et \scriptstyle N_b celui d'un autre texte. Alors \scriptstyle p=\frac{N_a}{N_a+N_b} est la probabilité d'apparition d'un mot tiré au hasard dans le premier texte ; de même pour \scriptstyle q=\frac{N_b}{N_a+N_b} dans le deuxième texte[a 9]. Le nombre de mots ayant la même fréquence d'apparition dans le premier texte suit alors une loi binomiale de paramètres \scriptstyle n=N_a+N_b et p. Il est possible d'effectuer des tests statistiques pour conclure si la richesse du vocabulaire est grande ou non.

En 1908, Émile Borel étudie la fréquence des différents chiffres dans le développement décimal d'un nombre réel. Il considère les 2n premières valeurs de la décomposition décimale et estime la probabilité d'obtention du nombre de fois où apparaît chaque entier dans cette décomposition grâce à l'approximation par la loi normale. Il démontre ainsi le théorème des nombres normaux[a 10].

Une marche aléatoire sur \scriptstyle \mathbb Z est un processus stochastique \scriptstyle(S_n,n\in \mathbb N^*) à temps entier[66]. C'est-à-dire que la marche part d'une valeur initiale S0 = 0 par exemple et à chaque unité de temps, le marcheur se déplace (indépendamment du chemin parcouru avant) d'un pas vers le haut avec une probabilité p ou d'un pas vers le bas avec une probabilité 1 – p, ainsi S1 = –1 ou 1. Sn donne la position du marcheur au bout d'un temps n. Si p = 1 – p = 0,5, la marche est dite symétrique et le marcheur a autant de chance d'aller vers le haut que vers le bas. Dans ce cas, au bout du temps n, la variable aléatoire \scriptstyle \frac{1}{2}(S_{n}+n) peut prendre comme valeurs \scriptstyle 0,1 \dots n et elle est de loi binomiale b(n, 0,5). Cette considération ainsi que la convergence vers la loi normale (voir ci-dessus) permet de démontrer qu'une marche aléatoire renormalisée converge vers le mouvement brownien (voir Théorème de Donsker)[67].

Notes et références[modifier | modifier le code]

  1. a et b Gossett 2009, p. 310.
  2. Dodge 2007, p. 175.
  3. a, b, c et d Dodge 2007, p. 287.
  4. Ruegg 1994, p. 38.
  5. a, b, c et d Bogaert 2005, p. 50.
  6. Gossett 2009, p. 316.
  7. a et b Ruegg 1994, p. 39.
  8. Gossett 2009, p. 311.
  9. Bogaert 2005, p. 305.
  10. Foata, Fuchs et Ranchi 2012, p. 68.
  11. Hald 2005, p. 5.
  12. a et b Hald 2005, p. 485.
  13. Hazewinkel 1994, p. 438.
  14. a, b, c et d Johnson, Kemp et Kotz 2005, p. 109.
  15. Johnson, Kemp et Kotz 2005, p. 136.
  16. Johnson, Kemp et Kotz 2005, p. 140.
  17. Gossett 2009, p. 274.
  18. Ruegg 1994, p. 23.
  19. Johnson, Kemp et Kotz 2005, p. 53.
  20. Dette et Studden 1997, p. 16.
  21. a, b et c Johnson, Kemp et Kotz 2005, p. 110.
  22. a et b Johnson, Kemp et Kotz 2005, p. 111.
  23. a, b, c, d, e, f et g Hazewinkel 1994, p. 397.
  24. a, b, c, d et e Courtin 2012, p. 1 G 17.
  25. Bogaert 2005, p. 329.
  26. Johnson, Kemp et Kotz 2005, p. 114.
  27. a et b Mittag et Rinne 1993, p. 515.
  28. a, b et c Mittag et Rinne 1993, p. 105.
  29. a et b Johnson, Kemp et Kotz 2005, p. 115.
  30. Pfister 2012, p. 104.
  31. Courtin 2012, p. 1 G 16.
  32. a, b et c Johnson, Kemp et Kotz 2005, p. 135.
  33. a et b Johnson, Kemp et Kotz 2005, p. 116.
  34. Johnson, Kemp et Kotz 2005, p. 125.
  35. a, b et c Lesigne 2005, p. 4ème couv.
  36. Bogaert 2005, p. 54.
  37. Johnson, Kemp et Kotz 2005, p. 218.
  38. Mittag et Rinne 1993, p. 109.
  39. a et b Mittag et Rinne 1993, p. 116.
  40. a et b Johnson, Kemp et Kotz 2005, p. 137.
  41. Johnson, Kemp et Kotz 2005, p. 253.
  42. Johnson, Kemp et Kotz 2005, p. 254.
  43. Courtin 2012, p. 1 G 18.
  44. Siegmund et Yakir 2007, p. 14.
  45. a, b et c Foata, Fuchs et Ranchi 2012, p. 73.
  46. Hald 2005, p. 215.
  47. a et b Johnson, Kemp et Kotz 2005, p. 121.
  48. a et b Johnson, Kemp et Kotz 2005, p. 123.
  49. a et b Bogaert 2005, p. 348.
  50. a et b Mittag et Rinne 1993, p. 106.
  51. Hald 2005, p. 492.
  52. Ruegg 1994, p. 93.
  53. Hazewinkel 1994, p. 369.
  54. Johnson, Kemp et Kotz 2005, p. 118.
  55. a et b Johnson, Kemp et Kotz 2005, p. 117.
  56. Lesigne 2005, p. 34.
  57. Bogaert 2005, p. 71.
  58. Dodge 2007, p. 288.
  59. Bogaert 2005, p. 349.
  60. Dagnelie 1998, p. 122.
  61. Dagnelie 1998, p. 76.
  62. a et b Dagnelie 1998, p. 78.
  63. Siegmund et Yakir 2007, p. 17.
  64. a et b Siegmund et Yakir 2007, p. 11.
  65. Siegmund et Yakir 2007, p. 240.
  66. Pfister 2012, p. 154.
  67. Pfister 2012, p. 155.
Articles et autres sources
  1. a, b et c Aimé Fuchs, « Plaidoyer pour la loi normale ».
  2. (en) R. B. Potts (en), « Note on the factorial moments of standard distributions », Austr. J. Phys. (en), vol. 6,‎ , p. 498 (lire en ligne).
  3. Marc Diener, « Probabilités élémentaires — Chap. 7 : Fonctions génératrices », sur Université Nice Sophia Antipolis,‎ , p. 33.
  4. (en) V. Romanovsky, « Note on the moments of the binomial (p + q)n about its mean », Biometrika, vol. 15, no 3-4,‎ , p. 410-412 (DOI 10.2307/2331875).
  5. (en) Kais Hamza, « The smallest uniform upper bound on the distance between the mean and the median of the binomial and Poisson distributions », Statist. Probab. Lett., vol. 23,‎ , p. 21-25 (lire en ligne).
  6. a, b, c et d E. Morice, « Quelques modèles mathématiques de durée de vie », Revue de statistique appliquée, t. 14, no 1,‎ (lire en ligne), p. 68.
  7. (en) Victor Korolev et Irina Shevtsova, « An improvement of the Berry–Esseen inequality with applications to Poisson and mixed Poisson random sums », Scandinavian Actuarial Journal, vol. 2,‎ , p. 81-105 (lire en ligne).
  8. Étienne Évrard, « Les mystères des vocables », Revue Informatique et Statistique dans les Sciences humaines XXX - CIPL, vol. XXX, no 1 à 4,‎ , p. 272-274 (lire en ligne).
  9. Étienne Brunet, « Müller le lexicomaître », CIPL,‎ , p. 99-119 (lire en ligne).
  10. Émile Borel, « Les probabilités dénombrables et leurs applications arithmétiques », Rendiconti del Circolo Matematico di Palermo, vol. 27, no 1,‎ , p. 247-271 (ISSN 0009-725X et 1973-4409, DOI 10.1007/BF03019651, lire en ligne).

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Patrick Bogaert, Probabilités pour scientifiques et ingénieurs : Introduction au calcul des probabilités, De Boeck Supérieur,‎ , 402 p. (ISBN 2-8041-4794-0, lire en ligne)Document utilisé pour la rédaction de l’article
  • Jean-Pierre Courtin, L'Homme et les lois de la nature 1, Lulu.com,‎ (ISBN 978-1-4710-3427-5, lire en ligne)Document utilisé pour la rédaction de l’article
  • Pierre Dagnelie, Statistique théorique et appliquée, vol. 2, De Boeck Supérieur,‎ , 659 p. (ISBN 2-8041-2802-4, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) Holger Dette et William J. Studden, The Theory of Canonical Moments with Applications in Statistics, Probability, and Analysis, John Wiley & Sons,‎ (lire en ligne)Document utilisé pour la rédaction de l’article
  • Yadolah Dodge, Statistique: Dictionnaire encyclopédique, Springer Science & Business Media,‎ , 662 p. (ISBN 978-2-10-05810-23, lire en ligne)Document utilisé pour la rédaction de l’article
  • Dominique Foata, Aimé Fuchs et Jacques Ranchi, Calcul des probabilités : Cours, exercices et problèmes corrigés, Dunod,‎ , 3e éd., 368 p. (ISBN 978-2-287-72093-2, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) Eric Gossett, Discrete Mathematics with Proof, John Wiley & Sons,‎ , 904 p. (ISBN 978-0-470-45793-1, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) Anders Hald, A History of Probability and Statistics and Their Applications before 1750, John Wiley & Sons,‎ , 608 p. (ISBN 0-471-47129-1, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) Michiel Hazewinkel, Encyclopaedia of Mathematics (set), vol. 2, Springer Science & Business Media,‎ , 963 p. (ISBN 1-55608-010-7, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) Hans-Joachim Mittag et Horst Rinne, Statistical Methods of Quality Assurance, CRC Press,‎ , 664 p. (ISBN 0-412-55980-3, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) Norman Johnson, Adrienne Kemp et Samuel Kotz, Univariate Discrete Distributions, John Wiley & Sons,‎ , 646 p. (ISBN 0-471-27246-9, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) Emmanuel Lesigne, Heads Or Tails: An Introduction to Limit Theorems in Probability, AMS,‎ , 150 p. (ISBN 0-8218-3714-1, lire en ligne)Document utilisé pour la rédaction de l’article
  • Charles-Edouard Pfister, Théorie des probabilités, PPUR presses polytechniques,‎ , 229 p. (ISBN 978-2-88074-981-1, lire en ligne)Document utilisé pour la rédaction de l’article
  • Alan Ruegg, Probabilités et statistique, vol. 3, PPUR presses polytechniques,‎ , 153 p. (ISBN 2-88074-286-2, lire en ligne)Document utilisé pour la rédaction de l’article
  • (en) David Siegmund et Benjamin Yakir, The Statistics of Gene Mapping, Springer Science & Business Media,‎ , 354 p. (lire en ligne)Document utilisé pour la rédaction de l’article

Articles connexes[modifier | modifier le code]

Cet article est reconnu comme « bon article » depuis sa version du 11 février 2015 (comparer avec la version actuelle).
Pour toute information complémentaire, consulter sa page de discussion et le vote l'ayant promu.