Dispersion statistique

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

La dispersion représente la variabilité ou l'étendue des différentes valeurs que peut prendre une variable. En statistiques, il existe différentes mesures de la dispersion. Les plus courantes sont : la variance, l'écart-type ou encore l'écart interquartile. À la dispersion, s'oppose la notion de position ou tendance centrale, mesurée par la moyenne ou la médiane.

En mesure physique (métrologie), cette dispersion est estimée par l'écart type, qui sert à calculer l'erreur de mesure. De manière plus générale, il est important de savoir si les valeurs sont groupées ou dispersées, autrement dit si la population est homogène ou hétérogène vis-à-vis du critère testé.

Étendue[modifier | modifier le code]

L'étendue est la différence entre la valeur maximale et la valeur minimale du caractère statistique.

étendue = x_{\max}-x_{\min}

Écart interquartile[modifier | modifier le code]

L'écart interquartile est la différence entre le troisième et le premier quartile.

écart interquartile = Q3 - Q1

L'écart interquartile correspond à l'étendue de la série statistique après élimination de 25 % des valeurs les plus faibles et de 25 % des valeurs les plus fortes. Cette mesure est plus robuste que l'étendue, qui est sensible aux valeurs extrêmes.

Dispersion autour de la moyenne[modifier | modifier le code]

Après avoir calculé la moyenne, \bar x, on peut chercher à savoir de quelle façon les valeurs s'éloignent de cette moyenne. On crée alors une nouvelle série statistique : la série des écarts.

e_i=x_i-\bar x

Écart moyen[modifier | modifier le code]

Le premier réflexe serait de calculer la moyenne de ces écarts. Mais les propriétés de la moyenne nous assurent que la moyenne des écarts est nulle. En effet, certains de ces écarts sont négatifs et d'autres sont positifs, la somme des écarts positifs compensant exactement la somme des écarts négatifs. Il faut donc s'abstraire du signe et calculer alors la moyenne de la valeur absolue des écarts. C'est ce que l'on appelle l'écart moyen.

Variance[modifier | modifier le code]

L'utilisation des valeurs absolues est souvent une impasse en mathématique (parce que la fonction valeur absolue n'est pas dérivable). Pour rendre positifs les écarts, un autre outil est à notre disposition : la mise au carré. On ne va donc pas calculer la moyenne des écarts mais la moyenne des carrés des écarts. C'est ce qu'on appelle la variance :

  • V=\frac1n\sum_{i=1}^n(x_i-\bar x)^2 dans le cas d'une série discrète non triée.
  • V=\frac{\sum_{i=1}^nn_i(x_i-\bar x)^2}{\sum_{i=1}^nn_i}=\sum_{i=1}^nf_i(x_i-\bar x)^2 dans le cas d'une série discrète regroupée.
  • V=\frac{\sum_{i=1}^nn_i(m_i-\bar x)^2}{\sum_{i=1}^nn_i}=\sum_{i=1}^nf_i(m_i-\bar x)^2 dans le cas d'une série continue.

La disparition des valeurs absolues permet des calculs plus simples. On démontre que la variance peut se calculer plus simplement par les formules suivantes :

  • V=\frac1n\sum_{i=1}^nx_i^2-\bar x^2 dans le cas d'une série discrète non triée.
  • V=\frac{\sum_{i=1}^nn_ix_i^2}{\sum_{i=1}^nn_i}-\bar x^2=\sum_{i=1}^nf_ix_i^2-\bar x^2 dans le cas d'une série discrète regroupée.
  • V=\frac{\sum_{i=1}^nn_im_i^2}{\sum_{i=1}^nn_i}-\bar x^2=\sum_{i=1}^nf_im_i^2-\bar x^2 dans le cas d'une série continue.

Ces formules étaient surtout utiles dans le cadre de calculs à la main ; l'usage des ordinateurs les rend un peu obsolètes…

Écart type[modifier | modifier le code]

De par la mise au carré des écarts, l'unité de la variance est le carré de celle du caractère (si le caractère est en kg, sa moyenne est en kg mais sa variance est en kg^2) d'où l'impossibilité d'additionner la moyenne et la variance. On a donc défini l'écart type noté \sigma. L'écart type est la racine de la variance (son unité est donc la même que celle de la moyenne). Cela a l'air anecdotique mais la possibilité d'additionner moyenne et écart type est fondamentale, en particulier pour le calcul d'intervalle de confiance (voir plus bas).

  • \sigma=\sqrt{\dfrac{1}{n}\sum_{i=1}^n(x_i-\overline{x})^2} dans le cas d'une série discrète non triée.
  • \sigma=\sqrt{\dfrac{\sum_{i=1}^nn_i(x_i-\overline{x})^2}{\sum_{i=1}^nn_i}}=\sqrt{\sum_{i=1}^nf_i(x_i-\overline{x})^2} dans le cas d'une série discrète regroupée.
  • \sigma=\sqrt{\dfrac{\sum_{i=1}^nn_i(m_i-\overline{x})^2}{\sum_{i=1}^nn_i}}=\sqrt{\sum_{i=1}^nf_i(m_i-\overline{x})^2} dans le cas d'une série continue.

Propriétés de l'écart type[modifier | modifier le code]

  • Invariance par translation. L'écart type n'est pas modifié si on ajoute ou retranche une constante à la série statistique. Si y_i=x_i+C alors \sigma_y=\sigma_x.
  • Stabilité par multiplication par une constante. Si on multiplie une série par une constante positive, l'écart type est multiplié par la même constante. Si y_i=Kx_i alors \sigma_y=K\sigma_x.
  • L'écart type est toujours positif ; il n'est nul que si la série statistique est constante.
  • Sensibilité aux valeurs extrêmes. Comme la moyenne, l'écart type est sensible aux valeurs extrêmes ou aberrantes et il est parfois nécessaire d'éliminer ces valeurs avant de faire le calcul de l'écart type.

Écart type relatif[modifier | modifier le code]

Pour comparer deux séries statistiques qui n'ont pas le même ordre de grandeur, il est parfois bon de comparer l'écart type et la moyenne en faisant le quotient, on obtient alors l'écart type relatif. \sigma / \overline{x}.

Remarque : l'écart type relatif est aussi appelé coefficient de variation.

Intervalle de confiance ou plage de normalité[modifier | modifier le code]

Lorsque le caractère statistique a une distribution normale gaussienne, grossièrement en forme de cloche, l'écart type prend tout son sens.

  • Dans l'intervalle [\bar x-\sigma,\bar x+\sigma], on trouve 68 % de la population.
  • Dans l'intervalle [\bar x-2\sigma,\bar x+2\sigma], on trouve 95 % de la population.
  • Dans l'intervalle [\bar x-3\sigma,\bar x+3\sigma], on trouve 99,7 % de la population.

On appelle ces intervalles les plages de normalité à niveau de confiance de 68 %, 95 %, 99,7 %. Voir la règle 68-95-99.7.

Diamètres d'ordre r[modifier | modifier le code]

Lorsqu'on dispose d'un ensemble de points (M_i)_{i=1,...,n} dans le plan (par exemple), on peut mesurer la dispersion des points en utilisant les distances d_{i,j} entre les couples de points différents. On appelle alors diamètre d'ordre r (ou r est un réel non nul) le coefficient D_r=\left(\frac2{n(n-1)}\sum_{i<j}d_{i,j}^r\right)^\frac1r. Le diamètre d'ordre 0 est défini comme la limite, lorsque les d_{i,j} sont tous non nuls, de D_{r}, pour r tendant vers 0. Nicolas Gauvrit et Jean-Paul Delahaye ont montré que la meilleure valeur possible (parmi les diamètres d'ordre r) pour capturer la notion intuitive de dispersion est le diamètre d'ordre 0 : c'est celle qui correspond le mieux à ce que répondent des sujets adultes à qui on demande des estimations de dispersion[1] .

Question de minimum[modifier | modifier le code]

La médiane est la valeur qui rend minimum la fonction f définie par

  • f(X)=\dfrac{1}{n}\sum_{i=1}^n|x_i-X| dans le cas d'une série discrète triée non regroupée.

La moyenne est la valeur qui rend minimum la fonction g définie par

  • g(X)=\sqrt{\dfrac{1}{n}\sum_{i=1}^n(x_i-X)^2} dans le cas d'une série discrète non triée.
  • g(X)=\sqrt{\dfrac{\sum_{i=1}^nn_i(x_i-X)^2}{\sum_{i=1}^nn_i}}=\sqrt{\sum_{i=1}^nf_i(x_i-X)^2} dans le cas d'une série discrète regroupée.
  • g(X)=\sqrt{\dfrac{\sum_{i=1}^nn_i(m_i-X)^2}{\sum_{i=1}^nn_i}}=\sqrt{\sum_{i=1}^nf_i(m_i-X)^2} dans le cas d'une série continue.

Notes et références[modifier | modifier le code]

  1. Gauvrit, N., & Delahaye, J.-P. (2006) Le diamètre d'ordre 0, une mesure naturelle d'étalement, Mathematiques et sciences humaines, 175, 41-51.[1]

Articles connexes[modifier | modifier le code]