Loi multinomiale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Multinomiale
Paramètres n > 0 nombre d'épreuves (entier)
p_1, \ldots p_m probabilités des événements (\Sigma p_i = 1)
Support N_i \in \{0,\dots,n\}
\Sigma N_i = n\!
Densité de probabilité (fonction de masse) \frac{n!}{n_1!\cdots n_m!} p_1^{n_1} \cdots p_m^{n_m}
Espérance E\{X_i\} = np_i
Variance {\mathrm{Var}}(X_i) = n p_i (1-p_i)
{\mathrm{Cov}}(X_i,X_j) = - n p_i p_j (i\neq j)
Fonction génératrice des moments \left( \sum_{i=1}^m p_i e^{t_i} \right)^n

La loi binomiale concerne le nombre de succès dans n épreuves de Bernoulli indépendantes donnant chacune un résultat binaire, comme dans le jeu de pile ou face. La loi multinomiale est une généralisation de celle-ci, applicable par exemple à n jets d'un à six faces. Contrairement à ces exemples simples, les différentes possibilités ne sont généralement pas équiprobables.

Autre présentation de la loi binomiale[modifier | modifier le code]

La fonction de probabilité de la variable aléatoire binomiale K qui s'écrit

\mathbb{P}(K=k) = \frac{n!} {k! (n-k)!} p^k (1-p)^{n-k}

peut se réécrire de manière symétrique en faisant intervenir deux variables dont la somme est égale à n :

N_1 = K \quad N_2 = n-K \quad p_1 = p \quad p_2 = 1-p
\mathbb{P}(N_1 = n_1,N_2 = n_2) = \frac{n!} {n_1! n_2!} p_1^{n_1} p_2^{n_2}

Généralisation[modifier | modifier le code]

Dans le cas multinomial à m\, résultats possibles au lieu de 2, les variables deviennent N_i\,, i=\{1,\ldots,m\}\, et correspondent aux probabilités p_i\,, i=\{1,\ldots,m\}\, avec les contraintes

\sum_{i=1}^m N_i = n \quad \sum_{i=1}^m p_i = 1

La fonction de probabilité s'écrit alors, sous la condition portant sur la somme des variables :

\mathbb{P}(N_1 = n_1,\ldots N_m = n_m) = \frac{n!} {n_1! \ldots n_m!} p_1^{n_1}\ldots p_m^{n_m}

Chacune des variables reste une variable binomiale dont la moyenne et la variance sont

\operatorname{E}(N_i) = n p_i \quad \operatorname{var}(N_i) = n p_i (1-p_i)

tandis que les covariances s'écrivent

\operatorname{cov}(N_i,N_j) = -n p_i p_j\,

Approximation[modifier | modifier le code]

Lorsque la variable aléatoire N_i\, devient assez grande, le théorème de la limite centrale montre qu'elle est raisonnablement approchée par une variable normale à laquelle correspond la variable centrée réduite \frac {N_i - n p_i} {\sqrt{np_i(1-p_i)}}.

Si ces variables étaient indépendantes, \sum_{i=1}^m \frac {(N_i - n p_i)^2} {np_i(1-p_i)} suivrait une loi du \chi^2\, à m\, degrés de liberté.

Du fait de la contrainte linéaire qui s'applique, la variable \sum_{i=1}^m \frac {(N_i - n p_i)^2} {n p_i} suit une loi du \chi^2\, à (m-1)\, degrés de liberté.

Cette dernière remarque est à la base du test du χ².