Écart type

Un article de Wikipédia, l'encyclopédie libre.
Aller à : navigation, rechercher

L'écart type (standard deviation en anglais), aussi orthographié écart-type, est une notion mathématique définie en probabilités et appliquée à la statistique. En probabilité, l'écart type est une mesure de la dispersion d'une variable aléatoire réelle ; en statistique, il est une mesure de dispersion de données. Il est défini comme la racine carrée de la variance, ou de manière équivalente comme la moyenne quadratique des écarts par rapport à la moyenne. Il a la même dimension que la variable aléatoire ou la variable statistique en question.

Les écarts types sont rencontrés dans tous les domaines où sont appliqués les probabilités et la statistique, en particulier dans le domaine des sondages, en physique, en biologie ou dans la finance. Ils permettent en général de synthétiser les résultats numériques d'une expérience répétée. Tant en probabilités qu'en statistique, il sert à l'expression d'autres notions importantes comme le coefficient de corrélation, le coefficient de variation ou la répartition optimale de Neyman.

Quand l'écart type d'une population est inconnu, sa valeur est approchée à l'aide d'estimateurs.

Histoire[modifier | modifier le code]

fig. 01 - Exemple de deux échantillons ayant la même moyenne mais des écarts types différents illustrant l'écart type comme mesure de la dispersion autour de la moyenne.

L'écart-type est une grandeur dont l'invention remonte à la période du XIXe siècle qui vit la statistique se développer au Royaume-Uni.

C'est à Abraham de Moivre qu'est attribuée la découverte du concept de mesure de la dispersion qui apparaît dans son ouvrage The Doctrine of Chances en 1718[b 1]. Mais le terme d'écart type (« standard deviation ») a été employé pour la première fois par Karl Pearson en 1893 devant la « London Royal Society »[b 2]. C'est aussi Karl Pearson qui utilisa pour la première fois le symbole \scriptstyle \sigma pour représenter l'écart type[b 2]. En 1908, William Gosset, plus connu sous le pseudonyme de Student, définit l'écart type empirique d'un échantillon et montre qu'il est important de le distinguer de l'écart type d'une population[b 2]. La variance est une notion qui apparut plus tard, en 1918, dans un texte de Ronald Fisher intitulé The Correlation between Relatives on the Supposition of Mendelian Inheritance[i 1].

Contexte général[modifier | modifier le code]

En statistique comme en probabilités, on définit des critères de position ainsi que des critères de dispersion. Dans le domaine des probabilités, la dispersion d'une variable aléatoire réelle X autour de sa moyenne est mesurée par divers indicateurs comme l'écart interquartile, l'étendue, la variance, l'écart type, etc.[b 3].

En statistique descriptive, où l'étude porte sur une population finie parfaitement connue, la moyenne et la médiane sont utilisées comme critères de position et l'écart type, l'écart moyen, l'étendue, etc. comme critères de dispersion. Tous ces critères aident ensemble à résumer l'échantillon statistique[b 4].

Dans la pratique, on préfère l'écart type \scriptstyle \sigma (lettre grecque sigma) à la variance \scriptstyle V = \sigma^2, car l'écart type peut être comparé à l'ordre de grandeur des valeurs, ce qui n'est pas le cas de la variance[b 5].

Applications[modifier | modifier le code]

fig. 02 - Représentation graphique d'une loi normale. Chaque bande colorée a la largeur d'un écart type.

L'écart type sert à mesurer la dispersion d'un ensemble de données. Plus il est faible, plus les valeurs sont regroupées autour de la moyenne. Par exemple pour la répartition des notes d'une classe, plus l'écart type est faible, plus la classe est homogène. À l'inverse, s’il est plus important, les notes sont moins resserrées. Dans le cas d'une notation de 0 à 20, l'écart type minimal est 0 (notes toutes identiques), et peut valoir jusqu'à 10 si la moitié de la classe a 0/20 et l'autre moitié 20/20[Note 1].

En sciences, il est fréquent de considérer que les valeurs se répartissent selon une courbe de Gauss. Dans le cas des sciences sociales, par exemple, la moyenne et l'écart type permettent de déterminer un intervalle dans lequel on trouve une majorité de la population. En effet, si la moyenne est \scriptstyle m et l'écart type est  \scriptstyle \sigma, on trouve 95 % de la population dans l'intervalle \scriptstyle [m - 1,96 \,\sigma\, ;\, m + 1,96 \,\sigma] et on trouve 68,2 % de la population dans l'intervalle \scriptstyle [m - \,\sigma\, ;\, m + \,\sigma][b 6].

L'écart type est aussi utilisé pour construire un intervalle de confiance attribuable à un échantillon. Si l'on se réfère à la figure ci-contre, on voit qu'un sigma d'écart de part et d'autre de la valeur moyenne recouvre 68,2% de la distribution, deux sigmas d'écart ([\scriptstyle -2\sigma, \scriptstyle +2\sigma], 13,6+34,1+34,1+13,6 =) 95,4%, 3 sigmas d'écart ([\scriptstyle -3\sigma, \scriptstyle +3\sigma], 2,1+13,6+34,1+34,1+13,6+2,1 =) 99,6% et ainsi de suite... C'est l'usage notamment en physique des particules, où la détection d'évènements est quantifiée en nombre de sigmas, et où un résultat notamment est considéré comme significatif par l'obtention de 5 sigmas, représentant une probabilité d'erreur inférieure à 0,00003 % (niveau de confiance de plus de 99.99997%)[i 2].

fig.03 - La moyenne mobile est en rouge et les bandes de Bollinger, calculées à l'aide de l'écart type, sont en bleu.

Dans le domaine de l'analyse technique des cours de la bourse, l'écart type est une mesure de la volatilité des cours [b 7]. Les bandes de Bollinger sont des outils facilitant l'analyse des prévisions boursières. John Bollinger a construit la courbe des moyennes mobiles sur 20 jours et les courbes, de part et d'autre de cette courbe, situées à deux fois l'écart type sur ces 20 jours. John Bollinger a utilisé une définition adaptée de l'écart type[i 3]. En outre, le risque d'un actif boursier et le risque associé au marché sont mesurés par l'écart type de la rentabilité attendue, dans le modèle d'évaluation des actifs financiers de Harry Markowitz[i 4].

Dans l'industrie, l'écart type intervient dans le calcul de l'indice de qualité des produits manufacturés ou dans l'indice de fidélité d'un appareil de mesure[i 5],[i 6].

Enfin, en mécanique quantique, le principe d'incertitude d'Heisenberg exprime que le produit des écarts types de la position x et de l'impulsion p d'une particule est supérieur ou égal à la constante de Planck réduite divisée par deux, soit \scriptstyle \sigma_{x} \sigma_{p} \ge \frac{\hbar}{2} [i 7].

En probabilités[modifier | modifier le code]

Dans la formulation moderne des probabilités, à la suite des travaux de Henri Lebesgue et à la mise en place de l'axiomatique de Kolmogorov, une variable aléatoire X est une application à valeurs réelles, ou vectorielles[Note 2], suivant une loi de probabilité P. L'application X ne joue pas un rôle fondamental ; seule sa loi importe : l'image de P par X, notée PX. Il s'agit d'une mesure sur \scriptstyle \R ou sur \scriptstyle \R^n[b 8].

Définition[modifier | modifier le code]

Si X est une variable aléatoire de carré intégrable, appartenant donc à l'espace \scriptstyle \mathcal{L}^2 \left(\Omega, \mathcal A, P\right)[Note 3], son écart type, généralement noté \scriptstyle \sigma_X, est défini comme la racine carrée de l'espérance mathématique de (X−E[X])² , soit:

\sigma_X=\sqrt{ E\left[\left (X-E[X]\right )^2 \right]}=\sqrt{ E[ X^2 ] - E[ X ]^2}[Note 4],[i 8].

L'élévation au carré pour le membre de droite désigne implicitement la norme euclidienne au carré dans le cas où X est à valeurs vectorielles.

Enfin, l'écart type élevé au carré est égal à la variance.

Exemples[modifier | modifier le code]

Cette identité se spécialise dans un grand nombre de cas particuliers, dont celui des variables aléatoires discrètes. Si la variable X prend un nombre fini de valeurs réelles x₁, …, xn, avec des probabilités respectives p₁, …, pn, l'écart type est donné par

\sigma := \sqrt{\sum_{i=1}^n p_i (x_i-\bar{x})^2} = \sqrt{\left( \sum_{i=1}^n p_i {x_i}^2 \right) - \bar{x}^2 },

\bar{x} désigne la moyenne \scriptstyle \sum_{i=1}^n p_i x_i. En particulier, si la loi de X est uniforme sur un ensemble fini de valeurs, c'est-à-dire si

p_i = \frac{1}{n}, i=1, \ldots , n[b 9],

alors

\sigma_X:=\sqrt{ \frac{1}{n}\sum_{i=1}^n (x_i-\bar{x})^2} = \sqrt{ \frac{1}{n}\left( \sum_{i=1}^n {x_i}^2 \right) - \bar{x}^2 },

où cette fois, \scriptstyle \bar{x} = \frac{1}{n}\sum_{i=1}^n x_i.

Ces formules se généralisent immédiatement en dimension supérieure en remplaçant l'élévation au carré par la norme euclidienne au carré.

La loi PX est dite continue lorsque la probabilité que X appartienne au segment ]a,b[ est

\mathbb P_X ]a,b[ \longmapsto \mathbb P\left(X\in ]a,b[\right)=\int_a^b f(x)\,\mathrm{d}x

où ƒ est une fonction localement intégrable, pour la mesure de Lebesgue par exemple, mais pas nécessairement une fonction continue[b 10]. Cette fonction ƒ s'appelle la densité de probabilité de la loi PX. L'écart type de X est défini par

\sigma_X:=\sqrt{\int_{\R} (x- \bar x)^2  f(x) \mathrm{d}x}\scriptstyle \bar x =\sqrt{\int_{\R} xf(x)\,\mathrm{d}x}

et la formule

\sigma_X:=\sqrt{\int_{\R} x^2 f(x)\mathrm{d}x-{\left(\int_{\R} x f(x) \,\mathrm{d}x\right)}^2}

est équivalente aussi.

Avec ces formules et la définition le calcul des écarts types pour les lois couramment rencontrées est aisée. Le tableau suivant donne les écarts types de quelques-unes de ces lois :

Nom de la loi Paramètre(s) Description Écart type
Loi de Bernoulli[b 9] p Loi discrète de valeurs 0 avec probabilité 1-p et 1 avec probabilité p \scriptstyle \sigma=\sqrt{p(1-p)}
Loi binomiale[b 11] p et \scriptstyle n\in\N^* Loi de la somme de n variables indépendantes suivant la loi de Bernoulli de paramètre p \scriptstyle \sigma=\sqrt{n p (1-p)}
Loi géométrique[b 12] p Loi discrète sur \N telle que la probabilité d'obtenir l'entier n soit (1-p)pn \scriptstyle \sigma=\sqrt{\frac{1-p}{p^2}}
Loi uniforme sur un segment[b 13] a<b Loi uniformément continue sur \R de densité un multiple de la fonction indicatrice de [a;b] \scriptstyle \sigma=\frac{b-a}{\sqrt{12}}
Loi exponentielle[b 13] p Loi uniformément continue de support \R_+ de densité la fonction f\colon x \mapsto p \exp(-p x) \scriptstyle \sigma=\frac{1}{p}
Loi de Poisson[b 14] \scriptstyle \lambda Loi sur \N de densité la fonction \scriptstyle f\colon x \mapsto \exp(-\lambda)\frac{\lambda^x}{x!}\scriptstyle \lambda \in \R_+ \scriptstyle \sigma=\sqrt{\lambda}
Loi du χ²[b 15] \scriptstyle n Loi sur \R^+ de densité la fonction \scriptstyle f\colon x \mapsto \frac{1}{2^\frac{n}{2}\Gamma(\frac{n}{2})} x^{\frac{n}{2} - 1} e^{-\frac{x}{2}}\, pour tout x positif où \scriptstyle \Gamma est la fonction gamma \scriptstyle \sigma=\sqrt{2n}

Si la variable X suit une loi log-normale alors \scriptstyle \ln X suit une loi normale et l'écart type de X est relié à l'écart type géométrique[b 16].

Mais toutes les lois de probabilité n'admettent pas forcément un écart type fini : la loi de Cauchy (ou loi de Lorentz) n'a pas d'écart type, ni même d'espérance mathématique[b 17].

Propriétés[modifier | modifier le code]

L'écart type est toujours positif ou nul, celui d'une constante est nul. L'écart type d'une variable aléatoire X à laquelle a été ajoutée une constante [Note 5] est égal à l'écart type de la variable X. Cette propriété est nommée invariance par translation. L'écart type d'une variable multipliée par une constante est égal à la valeur absolue de la constante multipliée par l'écart type de la variable. Cette propriété est nommée invariance par dilatation[Note 6],[b 18]. Ceci peut se résumer par \scriptstyle \sigma_{cX+b}=|c|\sigma_{X}.

L'écart type de la somme algébrique de deux variables est égal à \scriptstyle \sigma_{X\pm Y}=\sqrt{\sigma_X^2+\sigma_Y^2\pm 2\sigma_X \sigma_Y \rho(X,Y)}\scriptstyle \rho(X,Y) est le coefficient de corrélation entre les deux variables X et Y[b 19].

La fonction \scriptstyle \R  \rightarrow  \R^+ : c \rightarrow \sqrt{(|X-c|^2)} admet son minimum au point \scriptstyle c=E(X) et prend donc pour valeur en ce point l'écart type de la variable \scriptstyle X[b 20].

Usage[modifier | modifier le code]

L'écart type intervient en probabilité pour comparer des variables ou des distributions entre elles.

Variable centrée réduite[modifier | modifier le code]

fig.04 - exemples de distributions asymétriques
fig.05 - exemples de distributions plus ou moins aplaties

Si X est une variable aléatoire d'écart type non nul, on peut lui faire correspondre la variable centrée et réduite Z définie par \scriptstyle Z= \frac{X - \bar X}{\sigma}. Deux variables aléatoires centrées et réduites \scriptstyle Z_1 et \scriptstyle Z_2 sont aisées à comparer, puisque \scriptstyle E(Z_i)=0 et \scriptstyle \sigma_{Z_i}=1[b 21].

Le théorème central limite a pour objet la limite d'une suite de variables aléatoires centrées réduites[b 22], les coefficients de dissymétrie et d'aplatissement d'une densité de probabilité, \scriptstyle E[Z^3]~ {et} ~E[Z^4], permettent de comparer des distributions différentes[b 23].

Coefficient de corrélation[modifier | modifier le code]

Article détaillé : Corrélation (statistiques).

Le coefficient de corrélation est une autre application de l'écart type en probabilité. Si X et Y sont deux variables aléatoires, on appelle coefficient de corrélation le rapport \scriptstyle \rho = \frac{\operatorname{cov}(X,Y)} {\sigma_X \sigma_Y} \scriptstyle \operatorname{cov}(X,Y)= \mathbb{E}[(X - \mathbb{E}[X])\,(Y-\mathbb{E}[Y])] = \mathbb{E}[XY] - \mathbb{E}[X]\mathbb{E}[Y] est la covariance des variables X et Y. D'après l'inégalité de Cauchy-Schwarz, \scriptstyle |\operatorname{cov}(X,Y)| \le \sigma_X \sigma_Y ; ce qui permet de dire que \scriptstyle \rho prend ses valeurs dans l'intervalle \scriptstyle [-1,+1][b 24]. Si \scriptstyle \rho = 0 les deux variables ne sont pas corrélées, si \scriptstyle \rho = \pm 1 les deux variables sont linéairement dépendantes[b 25].

Inégalité de Bienaymé-Tchebychev[modifier | modifier le code]

C'est grâce à l'inégalité de Bienaymé-Tchebychev que l'écart type apparaît comme une mesure de la dispersion autour de la moyenne. En effet, cette inégalité exprime que \scriptstyle P(|X-E(X)|>k\sigma) \le \frac{1}{k^2}[b 3] et montre que la probabilité pour que X s'écarte de E(X) de plus de k fois l'écart type est inférieure à \scriptstyle \frac{1}{k^2}[b 26].

En statistique[modifier | modifier le code]

fig.06 - L'écart type sert à indiquer, à l'aide de barres d'erreur, l'incertitude du positionnement du barycentre de chaque groupe d'iris de l'échantillon le long de la direction indiquée par la largeur des sépales.

Pour une population finie - relativement faible en nombre - le calcul de l'écart type est purement algébrique, sans référence aux probabilités, et le statisticien emploie l'écart type empirique défini par \scriptstyle s:=\sqrt{\frac{1}{n}\sum_{i=1}^n(x_i-\overline{x})^2}[b 27].

Mais, en statistique, la population étudiée est souvent très importante en nombre, et il n'est pas possible de connaître toutes les valeurs de la caractéristique considérée. Le statisticien procède par échantillonnage et estimation pour évaluer les grandeurs analysées telles que l'écart type.

Estimateurs[modifier | modifier le code]

Un estimateur est une fonction permettant d'approcher un paramètre d'une population à l'aide d'un échantillon tiré au hasard[b 28].

Deux estimateurs de l'écart type sont généralement utilisés. Ces estimateurs sont notés \scriptstyle S_n (ou S) et \scriptstyle {S_{n-1}} (ou S′ ) et s'expriment en fonction des valeurs de l'échantillon par \scriptstyle S_n=\sqrt{\frac{1}{n}\sum_{i=1}^n(X_i-\overline{X})^2} et \scriptstyle S_{n-1}=\sqrt{\frac{1}{n-1}\sum_{i=1}^n(X_i-\overline{X})^2} = \sqrt{\frac{n}{n-1}}\cdot S_n. \scriptstyle {S_{n-1}} est l'estimateur privilégié[b 29],[b 27].

En effet, une bonne estimation de l'écart type réel serait

\sigma_X =\sqrt{ \frac{1}{n}\sum_{i=1}^n (x_i-\mu)^2} ,

\mu désigne la moyenne vraie de la distribution des x_i. Malheureusement, le plus souvent on ne connaît pas \mu et on doit l'estimer à partir de l'échantillon lui-même grâce à l'estimateur suivant : \scriptstyle \bar{x} = \frac{1}{n}\sum_{i=1}^n x_i.

L'estimateur de l'écart-type se calcule alors par la formule :

S_{n-1}=\sqrt{ \frac{1}{n-1}\sum_{i=1}^n (x_i-\bar{x})^2}

Le fait de faire intervenir non pas n mais n-1 au dénominateur vient du fait que déterminer la moyenne de x à partir de l'échantillon fait perdre un degré de liberté puisque la formule \scriptstyle \bar{x} = \frac{1}{n}\sum_{i=1}^n x_i relie \scriptstyle \bar{x} aux valeurs \scriptstyle  x_i. On a donc seulement n-1 valeurs indépendantes après le calcul de \scriptstyle \bar{x} 
.

Propriétés des estimateurs[modifier | modifier le code]

Ainsi, deux propriétés importantes des estimateurs sont la convergence et l'absence de biais[b 27].

Si \scriptstyle \hat \theta est un estimateur du paramètre \scriptstyle \theta, le biais est la quantité \scriptstyle E[\hat \theta] - \theta. Si cette quantité est différente de zéro, cela signifie que \scriptstyle \hat \theta se positionne autour de \scriptstyle E[\hat \theta] au lieu de se positionner autour de \scriptstyle \theta. L'estimateur \scriptstyle \hat \theta est alors entaché d'erreur. Un bon estimateur n'a pas de biais[b 30]. Un estimateur naturel de l'écart type est \scriptstyle S_{n-1} biaisé mais dont le biais est acceptable[b 31],[Note 7],[i 9].

Si \scriptstyle \lim\limits_{n \to \infty} (a_n)=a, \scriptstyle (a_n) converge vers a quand n tend vers l'infini[Note 8]. Or, \scriptstyle {S_n}^2 et \scriptstyle {S_{n-1}}^2 sont des estimateurs convergents de σ², ce qui reflète l'approximation de σ² par ces deux séries lorsque n devient de plus en plus grand[b 30]. Grâce au théorème de continuité, stipulant que si f est continue \scriptstyle \lim\limits_{n \to \infty} f(X_n)=f(\lim\limits_{n \to \infty} X_n), la fonction racine carrée étant continue, les estimateurs \scriptstyle S_n et \scriptstyle S_{n-1} sont convergents eux aussi[Note 9],[b 32]. Ce qui conforte le statisticien à utiliser ces estimateurs.

Écart type des moyennes[modifier | modifier le code]

Pour estimer la précision de l'estimation de la moyenne d'une variable, la méthode du calcul de l'écart type de la distribution d'échantillonnage des moyennes est utilisée. Appelé aussi erreur type de la moyenne (« Standard error »), noté \scriptstyle \sigma_{\bar x} , c'est l'écart type des moyennes des échantillons de tailles identiques d'une population. Si n est la taille des échantillons prélevés sur une population d'écart type \scriptstyle \sigma, et si N est la taille de la population, alors \scriptstyle \sigma_{\bar x} = \frac{\sigma}{\sqrt{n}}\sqrt{\frac{N-n}{N-1}}[b 33]. Lorsque l'écart type \scriptstyle \sigma de la population est inconnu, il peut être remplacé par l'estimateur \scriptstyle S_{n-1}[b 33]. Quand n est suffisamment grand (\scriptstyle n \ge 30), la distribution d'échantillonnage suit approximativement une loi de Laplace-Gauss, ce qui permet de déduire un intervalle de confiance, fonction de \scriptstyle \sigma_{\bar x} , permettant de situer la moyenne de la population par rapport à la moyenne de l'échantillon[b 34],[b 35].

Écart type des écarts types empiriques[modifier | modifier le code]

En général, il est très difficile de calculer la loi de distribution des écarts types empiriques. Mais si \scriptstyle X_n est une suite de variables aléatoires distribuées selon la loi normale \scriptstyle \mathcal{N}(\mu,\sigma^2) , alors \scriptstyle n\frac{S_n^2}{\sigma^2} suit une loi du \scriptstyle \chi^2 à n degrés de liberté[b 15],[Note 10]. Cette loi a pour écart type \scriptstyle \sqrt{2n} et donc l'écart type de la distribution des écarts types de variables normales a pour expression \scriptstyle \sigma_{S_n^2}=\sigma^2\sqrt{\frac{2}{n}}[b 15].

Interprétation d'un écart type élevé[modifier | modifier le code]

La notion d'écart type élevé n'a aucun sens dans l'absolu. Elle ne traduit une forte dispersion que si on rend la valeur adimensionnelle en la divisant par la moyenne [b 5].

Un écart type élevé peut éventuellement signaler l'existence d'une valeur aberrante. Un critère consiste à rejeter les valeurs qui diffèrent de la moyenne par plus de 3 fois l'écart type, ce qui correspond selon la loi normale à une probabilité de dépassement de l'ordre de 3/1000 [b 36].

Sondages d'opinion[modifier | modifier le code]

Dans les sondages d'opinion, l'écart type \scriptstyle \sigma_{\bar x} évalue l'incertitude des variations accidentelles de \scriptstyle \bar x inhérentes au sondage, ce qu'on appelle la marge d'erreur due aux variations accidentelles[i 10].

De plus, avec la méthode d'échantillonnage représentatif, lorsque les différentes strates ont des écarts types très différents, l'écart type est utilisé pour calculer la répartition optimale de Neyman qui permet d'évaluer la population dans les différentes strates en fonction de leur l'écart type ; en d'autres termes \scriptstyle n_i=n\frac{N_i\sigma_i}{\sum N_j\sigma_j} est la taille de l'échantillon dans la strate i, où n est la taille totale de l'échantillon, \scriptstyle N_i est la taille de la strate i, \scriptstyle \sigma_i l'écart type de la strate i[i 10].

En algorithmique[modifier | modifier le code]

Le calcul de l'écart type par un programme d'ordinateur peut aboutir à des résultats incohérents si on n'utilise pas un algorithme adapté aux données, comme lorsqu'on utilise celui qui exploite directement la formule \scriptstyle \sqrt{ \frac{1}{n}\left( \sum_{i=1}^n {x_i}^2 \right) - \left( {\frac{1}{n}\sum_{i=1}^n x_i} \right)^2 } sur des grands échantillons de valeurs comprises entre 0 et 1[i 11],[i 12].

Un des meilleurs algorithmes est celui de B.P. Welford qui est décrit par Donald Knuth dans son livre The Art of Computer Programming, Vol 2[i 13],[i 14].

Une approximation de l'écart type de la direction du vent est donnée par l'algorithme de Yamartino dont on se sert dans les anémomètres modernes[i 15],[i 16].

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]

  1. Si n élèves ont 0/20 et n élèves ont 20/20, c'est-à-dire l'échantillon contient n fois la valeur 20 et n fois la valeur 0, la moyenne est \scriptstyle \frac{n\times 20}{n+n} ; soit \scriptstyle\bar X = 10 et \scriptstyle\bar X^2 = 100.
    Les valeurs au carré, notées \scriptstyle X^2, sont n fois 400 et n fois 0. La moyenne de \scriptstyle X^2 vaut donc \scriptstyle\overline{X^2} = 200. On en déduit que la variance vaut 100 et l'écart type 10.
  2. en fait, à valeurs dans des espaces de Banach, mais cet article se limite au cas réel qui est le plus utilisé en pratique
  3. \scriptstyle \Omega est un ensemble, \scriptstyle \mathcal A une tribu sur \scriptstyle \Omega, et \scriptstyle P une mesure sur \scriptstyle \mathcal A.
  4. la première égalité définit \scriptstyle {\sigma_X}^2, la seconde est donnée par le Théorème de König-Huyghens
  5. \scriptstyle Y = X + a
  6. Toutes ces propriétés sont la conséquence directe du théorème de Huygens et des propriétés de l'espérance mathématique .
  7. D'après G. Saporta, on a, pour une distribution normale, \scriptstyle E(S_{n-1})=\sigma \sqrt{ \frac{2}{n-1}}\frac{\Gamma(\frac{n}{2})}{\Gamma(\frac{n-1}{2})} qui tend vers \scriptstyle \sigma lorsque \scriptstyle n \to \infty\scriptstyle S_{n-1}= \sqrt{\frac{1}{n-1}\sum_{i=1}^n (X_i-\bar X)^2} et \scriptstyle \Gamma la Fonction gamma
  8. la convergence peut-être en loi, en moyenne, presque surement, en probabilité...
  9. d'après le théorème de continuité on a :

    Théorème — Si g est continue, alors : \scriptstyle X_n\xrightarrow{\mathbb{P}}X \Longrightarrow g(X_n)\xrightarrow{\mathbb{P}}g(X)

    . Comme la fonction racine carrée est une fonction continue, \scriptstyle S_{n-1} et \scriptstyle S_{n} sont des estimateurs convergents de l'écart type, autrement dit : \scriptstyle S_{n-1} \xrightarrow{\mathbb{P}} \sigma \text{ et } S_{n} \xrightarrow{\mathbb{P}} \sigma
  10. par définition de la loi du \scriptstyle \chi^2

Références[modifier | modifier le code]

Ouvrages spécialisés[modifier | modifier le code]

  1. Bernstein 1996, p. 127
  2. a, b et c Dodge 2010, p. 506
  3. a et b Saporta 2006, p. 25
  4. Saporta 2006, p. 119
  5. a et b Saporta 2006, p. 121
  6. Saporta 2006, p. 43-44
  7. Jean-Pierre Petit, La Bourse : Rupture et Renouveau, Paris, Odile Jacob economie,‎ 2003, 285 p. (ISBN 978-2738113382), p. 36
  8. Saporta 2006, p. 16
  9. a et b Saporta 2006, p. 30
  10. Rioul 2008, p. 45
  11. Saporta 2006, p. 31
  12. Saporta 2006, p. 38
  13. a et b Saporta 2006, p. 39
  14. Saporta 2006, p. 33
  15. a, b et c Dodge 2010, p. 71
  16. (en) Warren H. Finlay, The Mechanics of Inhaled Pharmaceutical Aerosols: An Introduction , San Diego, Academic Press Inc,‎ 2001, 320 p. (ISBN 978-0122569715), p. 5
  17. Dodge 2010, p. 60
  18. Saporta 2006, p. 23-25
  19. Saporta 2006, p. 26
  20. Rioul 2008, p. 146
  21. Gautier et al. 1975, p. 387
  22. Saporta 2006, p. 66
  23. Rioul 2008, p. 157
  24. Rioul 2008, p. 175
  25. Rioul 2008, p. 178
  26. Jacquard 1976, p. 28-29
  27. a, b et c Saporta 2006, p. 279-280
  28. Saporta 2006, p. 289
  29. Tufféry 2010, p. 655
  30. a et b Saporta 2006, p. 290
  31. Saporta 2006, p. 284
  32. Rioul 2008, p. 253
  33. a et b Dodge 2010, p. 508-509
  34. Dodge 2010, p. 472
  35. Vessereau 1976, p. 56
  36. (en) David R. Anderson, Dennis J. Sweeney et Thomas A. Williams, « statistics », Encyclopaedia Britannica Ultimate Reference Suite,‎ 2010, statistics

Articles de revue[modifier | modifier le code]

  1. [PDF] (en) Ronald Aylmar Fisher, « The Correlation between Relatives on the Supposition of Mendelian Inheritance », Philosophical Transactions of the Royal Society of Edinburgh, vol. 52,‎ 1918, p. 399–433 (lire en ligne)
  2. Rolf Heuer, « Une fin d’année pleine de suspense », Bulletin Hebdomadaire du CERN, vol. 2012, no 3,‎ 2012 (lire en ligne)
  3. (en) John Bollinger, « Bollinger Bands Introduction » (consulté le 27 avril 2012)
  4. [PDF]P Fery, « Risque et calcul socioéconomique », Centre d'analyse stratégique,‎ 2010 ((pour aller plus loin) lire en ligne)
  5. [PDF]P Ferignac, « Contrôle de réception quantitatif ou par mesure. », Revue de statistique appliquée, vol. 7, no 2,‎ 1959 (lire en ligne)
  6. [PDF]P Ferignac, « Erreurs de mesure et contrôle de la qualité. », Revue de statistique appliquée, vol. 13, no 2,‎ 1965 (lire en ligne)
  7. [PDF]Yves Meyer, « Principe d'incertitude, bases hilbertiennes et algèbres d'opérateurs. », Séminaire Bourbaki, vol. 662,‎ février 1986 (lire en ligne)
  8. [PDF] Sylvie Méléard, « Aléatoire : Introduction à la théorie et au calcul des probabilités » (consulté le 07 mai 2012), p. 57,94
  9. [PDF]Emmanuel Grenier, « Quelle est la « bonne » formule de l’écart-type ? », La revue MODULAD, no 37,‎ décembre 2007 (lire en ligne)
  10. a et b [PDF]W.E. Deming, « Quelques méthodes de sondage. », Revue de statistique appliquée, vol. 12, no 4,‎ 1964 (lire en ligne)
  11. (en) John D. Cook, « Theoretical explanation for numerical results » (consulté le 20 avril 2012)
  12. (en) John D. Cook, « Comparing three methods of computing standard deviation » (consulté le 20 avril 2012)
  13. [PDF] (en) B.P. Welford, « Note on a Method for Calculating Corrected Sums of Squares and Products », Technometrics, vol. 4, no 3,‎ août 1962, p. 419-420 (lire en ligne)
  14. (en) John D. Cook, « Accurately computing running variance » (consulté le 20 avril 2012)
  15. (en) [PDF] (en) R.J. Yamartino, « A comparison of several "single-pass" estimators of the standard deviation of wind direction », Journal of climate and applied meteorology, vol. 23,‎ janvier 1984, p. 1362-1366 (lire en ligne)
  16. [PDF] (en) Mike Bagot, « Victorian Urban Wind Resource Assessment » (consulté le 24 avril 2012)

Voir aussi[modifier | modifier le code]

Bibliographie[modifier | modifier le code]

  • Gilbert Saporta, Probabilités, Analyse des données et Statistiques, Paris, Éditions Technip,‎ 2006, 622 p. (ISBN 978-2-7108-0814-5, lire en ligne) [détail des éditions], seconde édition Document utilisé pour la rédaction de l’article
  • Alain Monfort, Cours de Statistique Mathématique, Paris, éditions Economica,‎ 1997, 333 p. (ISBN 2-7178-3217-2[à vérifier : ISBN invalide]) Document utilisé pour la rédaction de l’article
  • (en) Encyclopaedia Britannica Ultimate Reference Suite, Chicago, Encyclopædia Britannica,‎ 2010 Document utilisé pour la rédaction de l’article
  • Olivier Rioul, Théorie des probabilités, Paris, éditions Hermes sciences,‎ 2008, 364 p. (ISBN 978-2-7462-1720-1) Document utilisé pour la rédaction de l’article
  • (en) Yadolah Dodge, The Concise Encyclopaedia of Statistics, New York, Springer,‎ 2010, 622 p. (ISBN 978-0-387-31742-7) Document utilisé pour la rédaction de l’article
  • Stéphane Tufféry, Data Mining et statistique décisionnelle, Paris, éditions Technip,‎ 2010, 705 p. (ISBN 978-2-7108-0946-3) Document utilisé pour la rédaction de l’article
  • (en) Peter L. Bernstein, Against the Gods : The Remarkable Story of Risk, New York, John Wiley & sons, inc,‎ 1996, 383 p. (ISBN 978-0-471-12104-6) Document utilisé pour la rédaction de l’article
  • Albert Jacquard, Les Probabilités, Paris, Presses Universitaires de France, coll. « Que sais-je » (no 1571),‎ 1976, 125 p. (ISBN 2-13-036532-9) Document utilisé pour la rédaction de l’article
  • C. Gautier, G. Girard, D. Gerll, C. Thiercé et A. Warusfel, Aleph1 Analyse, Paris, éditions Hachette,‎ 1975, 465 p. (ISBN 2-01-001370-0)Document utilisé pour la rédaction de l’article
  • André Vessereau, La Statistique, Paris, Presses Universitaires de France, coll. « Que sais-je » (no 281),‎ 1976, 128 p. (ISBN 2-13-052942-9) Document utilisé pour la rédaction de l’article
  • (en) Richard Herrnstein et Charles Murray, The Bell Curve: Intelligence and Class Structure in American Life, New York, Simon & Schuster Ltd,‎ 1994, 896 p. (ISBN 978-0684824291), Appendix 1, "Statistics for People Who Are Sure They Can't Learn Statistics"

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]

Cet article est reconnu comme « bon article » depuis sa version du 9 mai 2012 (comparer avec la version actuelle).
Pour toute information complémentaire, consulter sa page de discussion et le vote l'ayant promu.