Loi bêta-binomiale

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Loi bêta-binomiale
Image illustrative de l'article Loi bêta-binomiale
Densité de probabilité (ou fonction de masse)

Image illustrative de l'article Loi bêta-binomiale
Fonction de répartition

Paramètres n\in\mathbb N — nombre d'essais
\alpha > 0
\beta > 0
Support k=\{0,\dots,n\}
Densité de probabilité (fonction de masse) {n\choose k}\frac{\mathrm{B}(k+\alpha,n-k+\beta)} {\mathrm{B}(\alpha,\beta)}
Fonction de répartition 1- \tfrac{\mathrm{B}(\beta+n-k-1,\alpha+k+1)_3F_2(\boldsymbol{a},\boldsymbol{b};k)} {\mathrm{B}(\alpha,\beta)\mathrm{B}(n-k,k+2) (n+1)}

3F2(a,b,k) est la fonction hypergéométrique généralisée
\scriptstyle _3 F_2(1,\alpha+k+1,-n+k+1;k+2;-\beta-n+k+2;1)
Espérance \frac{n\alpha}{\alpha+\beta}\!
Variance \frac{n\alpha\beta(\alpha+\beta+n)}{(\alpha+\beta)^2(\alpha+\beta+1)}
Asymétrie \tfrac{(\alpha+\beta+2n)(\beta-\alpha)}{(\alpha+\beta+2)}\sqrt{\tfrac{1+\alpha+\beta}{n\alpha\beta(n+\alpha+\beta)}}
Kurtosis normalisé voir description
Fonction génératrice des moments _{2}F_{1}(-n,\alpha;\alpha+\beta;1-e^{t})
pour t<\ln(2)
Fonction caractéristique _{2}F_{1}(-n,\alpha;\alpha+\beta;1-e^{it})
pour |t|<\ln(2)

En théorie des probabilités, la loi bêta-binomiale est une loi de probabilité discrète à support fini, correspondant à un processus de tirages Bernoulli dont la probabilité de succès est aléatoire (suivant une loi Bêta. Elle est fréquemment utilisée en inférence bayésienne.

La loi de Bernoulli en est un cas particulier pour le paramètre n=1. Pour \alpha=\beta=1, elle correspond à la loi uniforme discrète sur \scriptstyle\{0,\dots,n\}. Elle approche également la loi binomiale lorsque les paramètres \alpha et \beta sont arbitrairement grands. La loi bêta-binomiale est une version unidimensionnelle de la loi de Pólya multivariée, similairement aux lois binomiale et bêta qui sont respectivement des cas spéciaux des lois multinomiale et de Dirichlet.

Motivation et expression[modifier | modifier le code]

Loi bêta-binomiale comme loi composée[modifier | modifier le code]

La loi bêta est la loi conjuguée de la loi binomiale. Ceci résulte d'un changement analytique d'une loi composée où le paramètre  p de la loi binomiale est aléatoire et donné par une loi bêta. Plus précisément, si

  \begin{align} L(k|p) & = \operatorname{Bin}(n,p) \\
                              & = {n\choose k}p^k(1-p)^{n-k} \end{align}

est la loi binomiale où p est une variable aléatoire de loi bêta

  \begin{align} \pi(p|\alpha,\beta) & = \mathrm{Beta}(\alpha,\beta) \\
                     & = \frac{p^{\alpha-1} (1-p)^{\beta-1}}{\mathrm{B}(\alpha,\beta)} \end{align}

alors la loi composée est donnée par

 \begin{align}  f(k|\alpha,\beta) & = \int_0^1 L(k|p)\pi(p|\alpha, \beta) \, dp \\
             & = {n\choose k}\frac{1}{\mathrm{B}(\alpha,\beta)} \int_0^1 p^{k+\alpha-1}(1-p)^{n-k+\beta-1} \, dp \\
             & = {n\choose k}\frac{\mathrm{B}(k+\alpha,n-k+\beta)} {\mathrm{B}(\alpha,\beta)}. \end{align}

En utilisant les propriétés de la fonction bêta, ceci peut être écrit de la manière suivante :

  f(k|\alpha,\beta) = \frac{\Gamma(n+1)}{\Gamma(k+1)\Gamma(n-k+1)} \frac{\Gamma(\alpha+k)\Gamma(n+\beta-k)}{\Gamma(\alpha+\beta+n)} \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}.

Dans ce contexte, la loi bêta-binomiale apparaît souvent en inférence bayésienne : la loi bêta binomiale est la loi prédictive d'une variable aléatoire binomiale avec une probabilité de succès donnée par une loi bêta.

Loi bêta-binomiale dans un modèle d'urnes[modifier | modifier le code]

La loi bêta-binomiale peut également être représentée par un modèle d'urnes, pour des paramètres \alpha et \beta entiers positifs. Plus précisément, on considère une urne contenant α boules rouges et β boules noires, on effectue alors des tirages aléatoires. Si une boule rouge est tirée, alors deux boules rouges sont replacées dans l'urne (elle-même plus une autre). De la même manière, si une boule noire est tirée, elle est remise avec une autre boule noire dans l'urne. Si on répète cette opération n fois, alors la probabilité de tirer k boules rouges suit une loi bêta-binomiale de paramètres n,\alpha et \beta.

Il est à noter que si après les tirages on replace une unique boule, alors la loi est binomiale, et si les tirages sont effectués sans remise, alors la loi est hypergéométrique.

Moments et propriétés[modifier | modifier le code]

Les trois premiers moments sont

  \begin{align}
   \mu_1 & =\frac{n\alpha}{\alpha+\beta} \\
   \mu_2 & =\frac{n\alpha[n(1+\alpha)+\beta]}{(\alpha+\beta)(1+\alpha+\beta)}\\
   \mu_3 & =\frac{n\alpha[n^{2}(1+\alpha)(2+\alpha)+3n(1+\alpha)\beta+\beta(\beta-\alpha)]}{(\alpha+\beta)(1+\alpha+\beta)(2+\alpha+\beta)}
 \end{align}

et le kurtosis est

 \begin{align}
\gamma_2 &= \frac{(\alpha + \beta)^2 (1+\alpha+\beta)}{n \alpha \beta( \alpha + \beta + 2)(\alpha + \beta + 3)(\alpha + \beta + n) }\\
&\times \left[ (\alpha + \beta)(\alpha + \beta - 1 + 6n) + 3 \alpha\beta(n - 2) + 6n^2 -\frac{3\alpha\beta n(6-n)}{\alpha + \beta} - \frac{18\alpha\beta n^{2}}{(\alpha+\beta)^2} \right].
\end{align}

Si on pose \pi=\frac{\alpha}{\alpha+\beta}, on remarque que la moyenne peut être écrite sous la forme  \mu = \frac{n\alpha}{\alpha+\beta}=n\pi et la variance par

\sigma^2 = \frac{n\alpha\beta(\alpha+\beta+n)}{(\alpha+\beta)^2(\alpha+\beta+1)}
 = n\pi(1-\pi) \frac{\alpha + \beta + n}{\alpha + \beta + 1} = n\pi(1-\pi)[1+(n-1)\rho]

\scriptstyle \rho= \tfrac{1}{\alpha+\beta+1} est la corrélation deux à deux entre les n tirages de Bernoulli et est appelé le paramètre de sur-dispersion.

Estimations ponctuelles[modifier | modifier le code]

Méthode des moments[modifier | modifier le code]

L'estimation par la méthode des moments peut être obtenue par l'utilisation des premier et deuxième moments de la loi bêta-binomiale, c'est-à-dire

  \begin{align}
   \mu_1 & =\frac{n\alpha}{\alpha+\beta} \\
  \mu_2 & =\frac{n\alpha[n(1+\alpha)+\beta]}{(\alpha+\beta)(1+\alpha+\beta)}
 \end{align}

et en les considérant égaux aux moments empiriques

  \begin{align}
   \hat{\mu}_1 & = m_1 \\
  \hat{\mu}_2 & =m_2.
 \end{align}

En résolvant en <\alpha et en \beta, on obtient

 \begin{align}
   \hat{\alpha} & =\frac{nm_1-m_2}{n(\frac{m_2}{m_1}-m_1-1)+m_1} \\
   \hat{\beta} & =\frac{(n-m_1)(n-\frac{m_2}{m_1})}{n(\frac{m_2}{m_1}-m_1 - 1)+m_1}.
 \end{align}

Maximum de vraisemblance[modifier | modifier le code]

Alors que la méthode du maximum de vraisemblance est inutilisable, sachant que la densité de probabilité est la densité d'un couple de fonction (fonction gamma et/ou fonction bêta), elles peuvent être facilement calculée via une optimisation numérique directe. Les estimées du maximum de vraisemblance à partir des données empiriques peuvent être calculées en utilisant des méthodes générales adaptées aux lois de Pólya multinomiales décrites dans (Minka 2003).

Exemple[modifier | modifier le code]

Les données suivantes donnent le nombre de garçons parmi les 12 premiers enfants de familles de 13 enfants, pour 6115 familles prises dans des données d’hôpital en Saxe au XIXe siècle (Sokal et Rohlf, p. 59 de Lindsey). Le 13e enfant est ignoré pour considérer le fait non aléatoire que des familles s'arrêtent quand elles obtiennent le genre attendu.

Garçons 0 1 2 3 4 5 6 7 8 9 10 11 12
Familles 3 24 104 286 670 1 033 1 343 1 112 829 478 181 45 7

Les deux premiers moments empiriques sont

 \begin{align}
   m_1 & = 6{,}23\\
   m_2 & = 42{,}31 \\
     n & = 12
 \end{align}

et ainsi les estimées par la méthode des moments sont

  \begin{align}
   \hat{\alpha} & = 34{,}135\,0\\
   \hat{\beta} & = 31{,}608\,5.
 \end{align}

Les estimées par le maximum de vraisemblance peuvent être trouvées numériquement

  \begin{align}
   \hat\alpha_\mathrm{mle} & = 34{,}095\,58\\
   \hat\beta_\mathrm{mle} & = 31{,}571\,5
 \end{align}

et le maximum de log-vraisemblance est

   \log \mathcal{L} = -12\,492{,}9

Références[modifier | modifier le code]

* Minka, Thomas P. (2003). Estimating a Dirichlet distribution. Rapport technique de Microsoft.

Liens externes[modifier | modifier le code]