Critère d'information bayésien

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Bic.
image illustrant les probabilités et la statistique
Cet article est une ébauche concernant les probabilités et la statistique.

Vous pouvez partager vos connaissances en l’améliorant (comment ?) selon les recommandations des projets correspondants.

Le critère d'information bayésien (en anglais bayesian information criterion ou BIC) est un critère d'information dérivé du critère d'information d'Akaike proposé par Gideon Schwarz en 1978.

À la différence du critère d'information d'Akaike, la pénalité dépend de la taille de l'échantillon et pas seulement du nombre de paramètres.

Définition[modifier | modifier le code]

Il s'écrit :

avec la vraisemblance du modèle estimée, le nombre d'observations dans l'échantillon et le nombre de paramètres libres du modèle[1].

Sélection du modèle[modifier | modifier le code]

Le modèle qui sera sélectionné est celui qui minimise le critère BIC, soit:

Bibliographie[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. (en) Colin Cameron et Pravin Trivedi, Microeconometrics : Methods And Applications, Cambridge University Press, , 1056 p. (ISBN 978-0521848053), p. 278-279

Voir aussi[modifier | modifier le code]