Loi du χ²

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les méthodes expérimentales, voir Test du χ2 et méthode des moindres carrés.
Loi du χ2
Image illustrative de l'article Loi du χ²
Densité de probabilité (ou fonction de masse)

Image illustrative de l'article Loi du χ²
Fonction de répartition

Paramètres degrés de liberté
Support
Densité de probabilité (fonction de masse)

est la fonction gamma

Fonction de répartition

est la fonction gamma incomplète

Espérance
Médiane
Mode si
Variance
Asymétrie
Kurtosis normalisé
Entropie
Fonction génératrice des moments pour
Fonction caractéristique

La loi du χ2 (prononcer « khi carré » ou « khi-deux ») est une loi à densité de probabilité. Cette loi est caractérisée par un paramètre dit degrés de liberté à valeur dans l'ensemble des entiers naturels (non nuls).

Soient , k variables aléatoires indépendantes suivant des lois normales de moyennes respectives et d'écart-type  ; leurs variables centrées et réduites, alors par définition la variable , telle que

suit une loi du χ2 à k degrés de liberté.

Soit X une variable aléatoire suivant une loi du χ2 à k degrés de liberté, on notera la loi de X.

Alors une densité[1] de X notée sera :

pour tout t positif

où Γ est la fonction gamma.

L'espérance mathématique de X vaut k et sa variance vaut 2k.

Approximation[modifier | modifier le code]

Conformément au théorème central limite, lorsque k est « grand » (k > 100), la loi d'une variable de χ2, somme de variables aléatoires indépendantes, peut être approchée par une loi normale d'espérance k et de variance 2k.

D'autres fonctions en χ2 peuvent converger plus rapidement vers la loi normale, notamment en ayant X~χ2(k) et k>30 :

  • peut être approchée par une loi normale centrée réduite (Ronald Aylmer Fisher).
  • peut être approchée par une loi normale de moyenne et de variance (Wilson et Hilferty, 1931).

Utilisation[modifier | modifier le code]

Cette loi est principalement utilisée dans le test du χ2 basé sur la loi multinomiale pour vérifier l'adéquation d'une distribution empirique à loi de probabilité donnée. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).

Liens avec d'autres lois[modifier | modifier le code]

Soient des variables aléatoires indépendantes suivant des lois normales d'espérance et de variance .

Différentes lois du et
Lois en fonction de variables de loi normale
loi du χ2
Loi du χ2 non centrée
Loi inverse-χ2
loi du χ
loi du χ non centrée

Si X est une variable aléatoire de loi normale centrée et réduite et Y suit une loi du à n degrés de liberté, X et Y étant indépendantes, alors suit une loi de Student à n degrés de liberté.

Si X suit une loi du à n degré de liberté, et Y une loi du à m degrés de liberté, et si X et Y sont indépendantes, alors suit une loi de Fisher à n et m degrés de liberté.

Lien avec les méthodes bayésiennes[modifier | modifier le code]

Dans son ouvrage Décisions rationnelles dans l'incertain (1974), qui constitue une somme des techniques bayésiennes dont la grande émergence se fait à cette époque, le professeur Myron Tribus montre que le χ2 constitue un exemple de passage à la limite du psi-test (test de plausibilité) bayésien lorsque le nombre de valeurs en présence devient grand - ce qui est la condition de travail des statistiques classiques, mais pas nécessairement des bayésiennes. Le raccord entre les deux disciplines, qui sont asymptotiquement convergentes, est ainsi complet.

L'ouvrage de référence de Jaynes en donne également une démonstration en page 287[2].

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. La loi de X est un cas particulier de loi plus générale dite loi Gamma.
  2. Introduction du livre

Bibliographie[modifier | modifier le code]

  • H. O. Lancaster (1969) The Chi-squared Distribution, New York: Wiley.