Test de normalité

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

En statistiques, les tests de normalité permettent de vérifier si des données réelles suivent une loi normale ou non. Les tests de normalité sont des cas particuliers des tests d'adéquation (ou tests d'ajustement, tests permettant de comparer des distributions), appliqués à une loi normale.

Ces tests prennent une place importante en statistiques. En effet, de nombreux tests supposent la normalité des distributions pour être applicables. En toute rigueur, il est indispensable de vérifier la normalité avant d'utiliser les tests. Cependant, de nombreux tests sont suffisamment robustes pour être utilisables même si les distributions s'écartent de la loi normale.

Approches empiriques et graphiques[modifier | modifier le code]

Histogramme de la distribution[modifier | modifier le code]

Il est possible de visualiser la forme de la distribution des données à analyser en les représentant sous forme d'histogramme puis de comparer la forme de cet histogramme avec une courbe représentant une loi normale (les paramètres de cette loi étant calculés à partir des données à analyser). Ceci ne permet pas de conclure à la normalité des données mais peut donner une idée du type de loi sous-jacente : loi normale, loi de Cauchy ou loi de Student si la distribution semble symétrique, loi log-normale, loi gamma, loi de Weibull, loi exponentielle ou loi bêta si la distribution est asymétrique.

Normality histogram.png

Histogramme des résidus[modifier | modifier le code]

Il est également possible de représenter l'histogramme des résidus(c'est-à-dire la différence entre la distribution observée et la loi normale). Les résidus doivent suivre également un loi normale.

Boîte à moustaches (box-plot)[modifier | modifier le code]

Une boîte à moustaches permet de visualiser rapidement la symétrie de la distribution des données réelles et la présence de valeurs atypiques.

Normality box-plot.png

Graphe quantile-quantile (qq-plot)[modifier | modifier le code]

Article détaillé : Diagramme Quantile-Quantile.

Coefficients d'asymétrie et d'aplatissement[modifier | modifier le code]

Les Coefficients d'asymétrie et d'aplatissement sont également utiles pour définir une loi normale.

Pour l'aplatissement : ~ G_2 = \frac{(n+1)\,n}{(n-1)\,(n-2)\,(n-3)} \; \sum_{i=1}^n \left( \frac {x_i - \bar{x}} \sigma \right) ^4 - 3\,\frac{(n-1)^2}{(n-2) (n-3)}

et pour l'asymétrie : G_1 = \frac n {(n-1)\,(n-2)} \; \sum_{i=1}^n \left( \frac {x_i - \bar{x}} \sigma \right) ^3

avec \sigma est la racine d'un estimateur non biaisé de la variance.

On sait effectivement que le coefficient d'asymétrie vaut zéro pour toute loi normale, tandis que le coefficient d'aplatissement vaut 3 (0 si normalisé)

Approche probabiliste[modifier | modifier le code]

Il existe également un grand nombre de tests de normalité:

Une article de 2011 du Journal of Statistical Modeling and Analytics[1] conclut que Shapiro-Wilk a la meilleure puissance pour un niveau de signifiance donné, suivi de près par Anderson-Darling, en comparant les tests de Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors, et Anderson-Darling.

Généralités[modifier | modifier le code]

Les tests de normalité sont des tests d'hypothèse. En notant F(x) la fonction de répartition basée sur les données à analyser et F_0(x) la fonction de répartition théorique, les hypothèses nulle et alternative peuvent s'écrire :

\begin{cases} {H_0~:~F(x) = F_0(x)} \\ {H_1~:~F(x) \neq F_0(x)} \end{cases}.

Les tests sur les moments ont une hypothèse moins forte, ils ne testent pas si la fonction de répartition est normale, mais si les moments (coefficients d'asymétrie et d'aplatissement) de la distribution inconnue sont identiques à ceux d'une loi normale:  H_{0}: G_1=0 \mbox{ et } G_2=3 \,

 H_{1}: G_1\ne 0 \mbox{ ou } G_2\ne 3 \,

On remarquera que ce n'est pas suffisant pour caractériser une loi normale (Problème des moments).

Test d'adéquation du χ²[modifier | modifier le code]

Article détaillé : Test du χ².

Son utilisation n'est pas recommandée du fait de son manque de puissance et de la nécessité de diviser les distributions en classes.

[2].

Tests bayesien[modifier | modifier le code]

Applications[modifier | modifier le code]

Une application des tests de normalité concerne les résidus d’un modèle de régression linéaire. S’il ne sont pas distribués de façon normale, les résidus ne peuvent pas être utilisés dans des tests Z ou dans quelqu’autre test que ce soit, à partir du moment où il fait intervenir des hypothèses de normalité (par exemple, le test t, le test de Fisher ou le test du χ²). Si les résidus ne sont pas normalement distribués, cela signifie que la variable dépendante, ou tout au moins une variable explicative, pourrait avoir une fonction de répartition erronée ; des variables importantes peuvent également être manquantes. Une ou plusieurs correction de ces erreurs classiques peuvent engendrer des résidus qui suivent une distribution normale.

Voir aussi[modifier | modifier le code]

  • Gilbert Saporta, Probabilités, Analyse des données et Statistiques, Paris, Éditions Technip,‎ 2006, 622 p. (ISBN 978-2-7108-0814-5, lire en ligne) [détail des éditions] (p. 359 à 370).
  • Judge et al., Introduction to the Theory and Practice of Econometrics, Second Édition, 1988; 890–892.
  • Gujarati, Damodar N., Basic Econometrics, Fourth Édition, 2003; 147–148

Références[modifier | modifier le code]

  1. Razali, Nornadiah; Wah, Yap Bee (2011). "Power comparisons of Shapiro-Wilk, Kolmogorov-Smirnov, Lilliefors and Anderson-Darling tests". Journal of Statistical Modeling and Analytics 2 (1): 21–33.
  2. Judge et al. (1988) and Gujarati (2003) recommandent le test de Jarque–Bera.

Liens externes[modifier | modifier le code]