Critère d'information bayésien

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Bic.

Le critère d'information bayésien (en anglais bayesian information criterion ou BIC) est un critère d'information dérivé du critère d'information d'Akaike proposé par Gideon Schwarz en 1978.

À la différence du critère d'information d'Akaike, la pénalité dépend de la taille de l'échantillon et pas seulement du nombre de paramètres.

Définition[modifier | modifier le code]

Il s'écrit :

\mathit{BIC} = -2\ln(L) + \ln(N)k

avec L la vraisemblance du modèle estimée, N le nombre d'observations dans l'échantillon et k le nombre de paramètres du modèle[1].

Bibliographie[modifier | modifier le code]

  • (en) Gideon E. Schwarz, « Estimating the dimension of a model », Annals of Statistics, vol. 6, no 2,‎ 1978, p. 461-464 (lien DOI?).

Notes et références[modifier | modifier le code]

  1. (en) Colin Cameron et Pravin Trivedi, Microeconometrics : Methods And Applications, Cambridge University Press,‎ 2005, 1056 p. (ISBN 978-0521848053), p. 278-279

Voir aussi[modifier | modifier le code]

Critère d'information d'Akaike