Loi du χ²

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Page d'aide sur l'homonymie Pour les méthodes expérimentales, voir Test du χ2 et méthode des moindres carrés.
Loi du χ2
image illustrative de l’article Loi du χ²
Densité de probabilité

image illustrative de l’article Loi du χ²
Fonction de répartition

Paramètres degrés de liberté
Support
Densité de probabilité

est la fonction gamma

Fonction de répartition

est la fonction gamma incomplète

Espérance
Médiane
Mode si
Variance
Asymétrie
Kurtosis normalisé
Entropie
Fonction génératrice des moments pour
Fonction caractéristique

En statistiques et en théorie des probabilités, la loi du χ2 centrée (prononcer « khi carré » ou « khi-deux ») avec k degré de liberté est la loi de la somme de carré de k lois normales centrées réduites indépendantes.

La loi du χ2 est utilisé en inférence statistique et pour les tests statistiques notamment le test du χ².

La loi du χ² non centrée généralise la loi du χ2.

Définition et caractéristiques[modifier | modifier le code]

Soient , k variables aléatoires indépendantes suivant des lois normales de moyennes 0 et d'écart-type 1, alors par définition la variable , telle que

suit une loi du χ2 à k degrés de liberté. On notera ou la loi de X.

La densité de probabilité de X notée sera :

pour tout x positif

où Γ est la fonction gamma[1].

Sa fonction de répartition sera :

est la fonction gamma incomplète.

Approximation[modifier | modifier le code]

Conformément au théorème central limite, lorsque k est « grand » (k > 100), la loi d'une variable de χ2, somme de variables aléatoires indépendantes, peut être approchée par une loi normale d'espérance k et de variance 2k.

D'autres fonctions en χ2 peuvent converger plus rapidement vers la loi normale, notamment en ayant X2(k) et k>30 :

  • 2X - 2k-1 peut être approchée par une loi normale centrée réduite (Ronald Aylmer Fisher).
  • 3X/k peut être approchée par une loi normale de moyenne 1-2/9k et de variance 2/9k (Wilson et Hilferty, 1931).

Utilisation[modifier | modifier le code]

Cette loi est principalement utilisée dans le test du χ2 basé sur la loi multinomiale pour vérifier l'adéquation d'une distribution empirique à une loi de probabilité donnée. Plus généralement elle s'applique dans le test d'hypothèses à certains seuils (indépendance notamment).

Elle est également utilisée pour établir des intervalles de confiance concernant la variance ou l'écart-type de variables aléatoires gaussiennes.

Liens avec d'autres lois[modifier | modifier le code]

Soient des variables aléatoires indépendantes suivant des lois normales d'espérance et de variance .

Différentes lois du et
Lois en fonction de variables de loi normale
loi du χ2
Loi du χ2 non centrée
Loi inverse-χ2
loi du χ
loi du χ non centrée

Si X est une variable aléatoire de loi normale centrée et réduite et Y suit une loi du à n degrés de liberté, X et Y étant indépendantes, alors suit une loi de Student à n degrés de liberté.

Si X suit une loi du à n degré de liberté, et Y une loi du à m degrés de liberté, et si X et Y sont indépendantes, alors suit une loi de Fisher à n et m degrés de liberté.

Table de valeurs des quantiles[modifier | modifier le code]

Le tableau suivant fournit les valeurs de certains quantiles de la loi du pour différents degrés de liberté k. Pour chaque valeur de , le quantile donné est tel que la probabilité pour qu'une variable suivant une loi de à k degrés de liberté lui soit inférieur est de . Ainsi, pour et , si X suit une loi de à 7 degrés de liberté, on lit dans la table que

Degrés de liberté Valeur du
1 0.004 0.02 0.06 0.15 0.46 1.07 1.64 2.71 3.84 6.63 10.83
2 0.10 0.21 0.45 0.71 1.39 2.41 3.22 4.61 5.99 9.21 13.82
3 0.35 0.58 1.01 1.42 2.37 3.66 4.64 6.25 7.81 11.34 16.27
4 0.71 1.06 1.65 2.20 3.36 4.88 5.99 7.78 9.49 13.28 18.47
5 1.14 1.61 2.34 3.00 4.35 6.06 7.29 9.24 11.07 15.09 20.52
6 1.63 2.20 3.07 3.83 5.35 7.23 8.56 10.64 12.59 16.81 22.46
7 2.17 2.83 3.82 4.67 6.35 8.38 9.80 12.02 14.07 18.48 24.32
8 2.73 3.49 4.59 5.53 7.34 9.52 11.03 13.36 15.51 20.09 26.12
9 3.32 4.17 5.38 6.39 8.34 10.66 12.24 14.68 16.92 21.67 27.88
10 3.94 4.87 6.18 7.27 9.34 11.78 13.44 15.99 18.31 23.21 29.59
11 4.57 5.58 6.99 8.15 10.3 12.9 14.6 17.3 19.7 24.7 31.3
12 5.23 6.30 7.81 9.03 11.3 14.0 15.8 18.5 21.0 26.2 32.9
13 5.89 7.04 8.63 9.93 12.3 15.1 17.0 19.8 22.4 27.7 34.5
14 6.57 7.79 9.47 10.8 13.3 16.2 18.2 21.1 23.7 29.1 36.1
15 7.26 8.55 10.3 11.7 14.3 17.3 19.3 22.3 25.0 30.6 37.7
1 - 0.05 0.1 0.2 0.3 0.5 0.7 0.8 0.9 0.95 0.99 0.999

Lien avec les méthodes bayésiennes[modifier | modifier le code]

Dans son ouvrage Décisions rationnelles dans l'incertain (1974), qui constitue une somme des techniques bayésiennes dont la grande émergence se fait à cette époque, le professeur Myron Tribus montre que le χ2 constitue un exemple de passage à la limite du psi-test (test de plausibilité) bayésien lorsque le nombre de valeurs en présence devient grand - ce qui est la condition de travail des statistiques classiques, mais pas nécessairement des bayésiennes. Le raccord entre les deux disciplines, qui sont asymptotiquement convergentes, est ainsi complet.

L'ouvrage de référence de Jaynes en donne également une démonstration en page 287[2].

Voir aussi[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

  1. La loi de X est un cas particulier de loi plus générale dite loi Gamma.
  2. Introduction du livre

Bibliographie[modifier | modifier le code]

  • H. O. Lancaster (1969) The Chi-squared Distribution, New York: Wiley.