Statistique

Un article de Wikipédia, l'encyclopédie libre.
(Redirigé depuis Statistique économique)
Aller à : navigation, rechercher
Page d'aide sur l'homonymie Pour les articles homonymes, voir Statistique (homonymie).
Page d'aide sur l'homonymie Pour un article sur une statistique consultez l'article Statistique (indicateur)

La statistique est d'un point de vue théorique une science, une méthode et une technique. La statistique comprend : la collecte des données, le traitement des données collectées, l'interprétation des données, la présentation afin de rendre les données compréhensibles par tous.

Remarquons que la statistique est parfois notée[1] « la Statistique » (avec une majuscule) ce qui permet de différentier cette science avec une statistique (avec une minuscule). Le pluriel est également souvent utilisé[2] pour désigner ce domaine mathématique : « les statistiques », cela permet de montrer la diversité de cette science ; le pluriel est utilisé en anglais.

Ainsi la statistique est un domaine des mathématiques qui possède une composante théorique ainsi qu'une composante appliquée. La composante théorique est proche de la théorie des probabilités et forme avec cette dernière, les sciences de l'aléatoire. La statistique appliquée est utilisée dans presque tous les domaines de l'activité humaine[3] : ingénierie, management, économie, biologie, informatique, etc. La statistique utilise des règles et des méthodes sur la collecte des données, pour que celles-ci puissent être correctement interprétées, souvent comme composante d'une aide à la décision. Le statisticien a pour profession la mise au point d'outils statistiques, dans le secteur privé ou le secteur public, et leur exploitation généralement dans un domaine d'expertise.

Histoire[modifier | modifier le code]

Article détaillé : Histoire des statistiques.

Bien que le nom de statistique soit relativement récent – on attribue en général l'origine du nom au XVIIIe siècle de l'allemand Staatskunde – cette activité semble exister dès la naissance des premières structures sociales. D'ailleurs, les premiers textes écrits retrouvés sont des recensements du bétail, des informations sur son cours et des contrats divers. On a ainsi trace des recensements en Chine au XXIIIe siècle av. J.-C. ou en Égypte au XVIIIe siècle av. J.-C.. Ce système de recueil de données se poursuit jusqu'au XVIIe siècle. En Europe, le rôle de collecteur de données est souvent tenu par des guildes marchandes, puis par les intendants de l'État.

Ce n'est qu'au XVIIIe siècle que l'on voit apparaître le rôle prévisionnel des statistiques avec la construction des premières tables de mortalité. Antoine Deparcieux écrit en 1746 l'Essai sur les probabilités de la durée de vie humaine. Elle va d'abord servir aux compagnies d'assurances sur la vie qui se créent alors[4].

La statistique est aussi un appui pour l'histoire prospective ou rétrospective de la démographie notamment. Ainsi en 1842, le Baron de Reiffenberg présentait-il[5] à l'Académie ses calculs rétrospectifs de population chez des peuples gaulois, d'après des chiffres donnés par Jules César dans sa conquête des gaules (De bello Gallico, v.).

Les statistiques mathématiques s'appuyaient sur les premiers travaux concernant les probabilités développés par Fermat et Pascal. C'est probablement chez Thomas Bayes que l'on vit apparaître un embryon de statistique inférentielle. Condorcet et Laplace parlaient encore de probabilité là où l'on parlerait aujourd'hui de fréquence. Mais c'est à Adolphe Quetelet que l'on doit l'idée que la statistique est une science s'appuyant sur les probabilités.

Le XIXe siècle voit cette activité prendre son plein essor. Des règles précises sur la collecte et l'interprétation des données furent édictées. La première application industrielle des statistiques eut lieu lors du recensement américain de 1890, qui mit en œuvre la carte perforée inventée par le statisticien Herman Hollerith. Celui-ci avait déposé un brevet au bureau américain des brevets.

Au XXe siècle, ces applications industrielles se développèrent d'abord aux États-Unis, qui étaient en avance sur les sciences de gestion, puis seulement après la Première Guerre mondiale en Europe. Le régime nazi employa des méthodes statistiques à partir de 1934 pour le réarmement. En France, on était moins au fait de ces applications.

L'application industrielle des statistiques en France se développe avec la création de l'Insee, qui remplaça le Service National des Statistiques créé par René Carmille.

L'avènement de l'informatique dans les années 1940 (aux États-Unis), puis en Europe (dans les années 1960) permit de traiter un plus grand nombre de données, mais surtout de croiser entre elles des séries de données de types différents. C'est le développement de ce qu'on appelle l'analyse multidimensionnelle. Au cours du siècle, plusieurs courants de pensée vont s'affronter :

  • les objectivistes ou fréquentistes qui pensent que les probabilités fournissent un modèle permettant d'idéaliser la distribution en fréquence et que là s'arrête leur rôle ;
  • les subjectivistes qui voient les probabilités comme un moyen de mesurer la confiance que l'on peut avoir dans une prévision ;
  • les néo-bayesiens qui soutiennent que les données statistiques seules ne permettent pas de donner le modèle probabiliste idéalisant la distribution en fréquence: il est nécessaire de proposer au départ une forme générale du modèle.

Définition[modifier | modifier le code]

Commençons par préciser que donner une définition de la statistique n'est pas chose facile, comme expliqué dans la section précédente, les définitions de la statistique évoluent en fonction de l'époque ou de son utilisation. En 1935, le statisticien Walter F. Willcox dénombrait entre 100 et 120 définitions différentes[6].

« Parmi les thèmes à propos desquels les statisticiens ne sont pas d'accord, se trouve la définition de leur science[7]. »

— Maurice Kendall

Donnons en premier lieu, la définition la plus classique actuellement utilisée, au moins depuis 1982[6],[8] : « La statistique est l'ensemble des méthodes qui ont pour objet la collecte, le traitement et l'interprétation de données d'observation relatives à un groupe d'individus ou d'unités. » Par cette définition, la statistique est une science rattachée aux mathématiques, elle est proche de la théorie des probabilités étant elle-même une science de l'aléatoire. (voir Interconnexions entre la théorie des probabilités et la statistique pour plus de détails). Les différents aspects de la statistique sont regroupés en différents domaines ou concepts : la statistique descriptive, l'inférence statistique, la statistique mathématique, l'analyse des données, etc.

John Tukey prétend qu'il y a deux approches en statistiques, entre lesquelles on jongle constamment : les statistiques exploratoires et les statistiques confirmatoires (exploratory and confirmatory statistics) :

  • on explore d'abord les données pour avoir une idée qualitative de leurs propriétés ;
  • puis on fait des hypothèses de comportement que l'on confirme ou infirme en recourant à d'autres techniques statistiques[réf. souhaitée].

Domaines d'application[modifier | modifier le code]

En 1982, le statisticien Pierre Dagnelie propose trois grandes tendances de la statistique[6] :

  • la statistique qualifiée d'« administrative » ou « gouvernementale » faite dans les instituts de statistique à propos de grands ensembles de données,
  • la statistique dite « mathématique » ou « universitaire » faite avec peu de données et qui a pour but la novation,
  • enfin la statistique « appliquée » ou « de terrain » faite dans les instituts de sondage d'opinion ou les facultés de médecine pour des problèmes concrets.

Dans la pratique, les méthodes et outils statistiques sont utilisés dans des domaines tels que :

Statistique descriptive et statistique mathématique[modifier | modifier le code]

Le but de la statistique est d'extraire des informations pertinentes d'une liste de nombres difficile à interpréter par une simple lecture. Deux grandes familles de méthodes sont utilisées selon les circonstances. Rien n'interdit de les utiliser en parallèle dans un problème concret mais il ne faut pas oublier qu'elles résolvent des problèmes de natures totalement distinctes. Selon une terminologie classique, ce sont la statistique descriptive et la statistique mathématique. Aujourd'hui, il semble que des expressions comme analyse des données et statistique inférentielle soient préférées, ce qui est justifié par le progrès des méthodes utilisées dans le premier cas.

Considérons par exemple les notes globales à un examen. Il peut être intéressant d'en tirer une valeur centrale qui donne une idée synthétique sur le niveau des étudiants. Celle-ci peut être complétée par une valeur de dispersion qui mesure, d'une certaine manière, l'homogénéité du groupe. Si on veut une information plus précise sur ce dernier point, on pourra construire un histogramme ou, d'un point de vue légèrement différent, considérer les déciles. Ces notions peuvent être intéressantes pour faire des comparaisons avec les examens analogues passés les années précédentes ou en d'autres lieux. Ce sont les problèmes les plus élémentaires de l'analyse des données qui concernent une population finie. Les problèmes portant sur des statistiques multidimensionnelles nécessitent l'utilisation de l'algèbre linéaire. Indépendamment du caractère, élémentaire ou non, du problème il s'agit de réductions statistiques de données connues dans lesquelles l'introduction des probabilités améliorerait difficilement l'information obtenue. Il est raisonnable de regrouper ces différentes notions :

Un changement radical se produit lorsque les données ne sont plus considérées comme une information complète à décrypter selon les règles de l'algèbre mais comme une information partielle sur une population plus importante, généralement considérée comme une population infinie. Pour induire des informations sur la population inconnue il faut introduire la notion de loi de probabilité. Les données connues constituent dans ce cas une réalisation d'un échantillon, ensemble de variables aléatoires supposées indépendantes (voir Loi de probabilité à plusieurs variables). La théorie des probabilités permet alors, entre autres opérations :

  • d'associer les propriétés de l'échantillon à celles qui sont prêtées à la loi de probabilité, inconnue en toute rigueur, c'est l'échantillonnage ;
  • de déduire inversement les paramètres de la loi de probabilité des informations que donne l'échantillon, c'est l'estimation ;
  • de déterminer un intervalle de confiance qui mesure la validité de l'estimation ;
  • de procéder à des tests d'hypothèse, le plus utilisé étant le Test du χ² pour mesurer l'adéquation de la loi de probabilité choisie à l'échantillon utilisé ;
  • etc.

La démarche statistique[modifier | modifier le code]

Recueil des données[modifier | modifier le code]

L'enquête statistique est toujours précédée d'une phase où sont déterminés les différents caractères à étudier.

L'étape suivante consiste à choisir la population à étudier. Il se pose alors le problème de l'échantillonnage : choix de la population à sonder (au sens large : cela peut être un sondage d'opinion en interrogeant des humains, ou bien le ramassage de roches pour déterminer la nature d'un sol en géologie), la taille de la population et sa représentativité.

Article détaillé : Plan d'expérience.

Que ce soit pour un recueil total (recensement) ou partiel (sondage), des protocoles sont à mettre en place pour éviter les erreurs de mesures qu'elles soient accidentelles ou répétitives (biais).

Articles détaillés : Erreur (métrologie) et Erreur statistique.

Le pré traitement des données est extrêmement important, en effet, une transformation des données initiales (un passage au logarithme, par exemple), peuvent considérablement faciliter les traitements statistiques suivants.

Traitement des données[modifier | modifier le code]

Article détaillé : Statistique descriptive.

Le résultat de l'enquête statistique est une série de chiffres (tailles, salaires) ou de données qualitatives (langues parlées, marques préférées). Pour pouvoir les exploiter, il va être nécessaire d'en faire un classement et un résumé visuel ou numérique. Il sera parfois nécessaire d'opérer une compression de données. C'est le travail de la statistique descriptive. Il sera différent selon que l'étude porte sur une seule ou sur plusieurs variables.

Étude d'une seule variable[modifier | modifier le code]

Le regroupement des données, le calcul des effectifs, la construction de graphiques permettent un premier résumé visuel du caractère statistique étudié. Dans le cas d'un caractère quantitatif continu, l'histogramme en est la représentation graphique la plus courante.

Les valeurs numériques d'un caractère statistique se répartissent dans \mathbb{R}, il est nécessaire de définir leurs positions. En statistiques, on est en général en présence d'un grand nombre de valeurs. Or, si l'intégralité de ces valeurs forme l'information, il n'est pas aisé de manipuler plusieurs centaines voire milliers de chiffres, ni d'en tirer des conclusions. Il faut donc calculer quelques valeurs qui vont permettre d'analyser les données : c'est le rôle des réductions statistiques. Celles-ci peuvent être extrêmement concises, réduites à un nombre : c'est le cas des valeurs centrales et des valeurs de dispersion. Certaines d'entre elles (comme la variance) sont élaborées pour permettre une exploitation plus théorique des données (voir Inférence statistique)

On peut aussi chercher à comparer deux populations. On s'intéressera alors plus particulièrement à leurs critères de position, de dispersion, à leur boîte à moustaches ou à l'analyse de la variance.

Étude de plusieurs variables[modifier | modifier le code]

Les moyens informatiques permettent aujourd'hui d'étudier plusieurs variables simultanément. Le cas de deux variables va donner lieu à la création d'un nuage de points, d'une étude de corrélation (mathématiques) éventuelle entre les deux phénomènes ou étude d'une régression linéaire.

Mais on peut rencontrer des études sur plus de deux variables : c'est l'analyse multidimensionnelle dans laquelle on va trouver l'analyse en composantes principales, l'analyse en composantes indépendantes, la régression linéaire multiple et l'exploration de données (ou data mining). Aujourd'hui, l'exploration de données (appelé aussi knowledge discovery) s'appuie, entre autres, sur la statistique pour découvrir des relations entre les variables de très vastes bases de données. Les avancées technologiques (augmentation de la fréquence des capteurs disponibles, des moyens de stockage, et de la puissance de calcul) donnent à l'exploration de données, un réel intérêt.

Interprétation et analyse des données[modifier | modifier le code]

Article détaillé : Inférence statistique.

L'inférence statistique a pour but de faire émerger des propriétés d'un ensemble de variables connues uniquement à travers quelques-unes de ses réalisations (qui constituent un échantillon de données).

Elle s'appuie sur les résultats de la statistique mathématique, qui applique des calculs mathématiques rigoureux concernant la théorie des probabilités et la théorie de l'information aux situations où on n'observe que quelques réalisations (expérimentations) du phénomène à étudier.

Sans la statistique mathématique, un calcul sur des données (par exemple une moyenne), n'est qu'un indicateur. C'est la statistique mathématique qui lui donne le statut d'estimateur dont on maîtrise le biais, l'incertitude et autres caractéristiques statistiques. On cherche en général à ce que l'estimateur soit sans biais, convergent (ou consistant) et efficace.

On peut aussi émettre des hypothèses sur la loi générant le phénomène général, par exemple « la taille des enfants de 10 ans en France suit-elle une loi gaussienne ? ». L'étude de l'échantillon va alors valider ou non cette hypothèse : c'est ce qu'on appelle les tests d'hypothèses. Les tests d'hypothèses permettent de quantifier la probabilité avec laquelle des variables (connues seulement à partir d'un échantillon) vérifient une propriété donnée.

Enfin, on peut chercher à modéliser un phénomène a posteriori. La modélisation statistique doit être différenciée de la modélisation physique. Dans le second cas, des physiciens (c'est aussi vrai pour des chimistes, biologistes, ou tout autre scientifique), cherchent à construire un modèle explicatif d'un phénomène, qui est soutenu par une théorie plus générale décrivant comment les phénomènes ont lieu en exploitant le principe de causalité. Dans le cas de la modélisation statistique, le modèle va être construit à partir des données disponibles, sans aucun a priori sur les mécanismes entrant en jeux. Ce type de modélisation s'appelle aussi modélisation empirique. Compléter une modélisation statistique par des équations physiques (souvent intégrées dans les pré traitements des données) est toujours positif.

Un modèle est avant tout un moyen de relier des variables à expliquer Y à des variables explicatives X, par une relation fonctionnelle :

Y = F(X)

Les modèles statistiques peuvent être regroupés en grandes familles (suivant la forme de la fonction F):

  • les modèles linéaires ;
  • les modèles non linéaires ;
  • les modèles non paramétriques.

Les modèles bayésiens (du nom de Bayes) peuvent être utilisés dans les trois catégories.

Statistique mathématique[modifier | modifier le code]

Article détaillé : Statistique mathématique.

Cette branche des mathématiques, très liée aux probabilités, est indispensable pour valider les hypothèses ou les modèles élaborés dans la statistique inférentielle. La théorie mathématiques des probabilités formalise les phénomènes aléatoires. Les statistiques mathématiques se consacrent à l'étude de phénomènes aléatoires que l'on connaît via certaines de ses réalisations.

Par exemple, pour une partie de dés à six faces :

  • le point de vue probabiliste est de formaliser un tel jeu par une distribution de probabilité p_1,p_2,\ldots,p_6 associée aux événements la première, deuxième..., sixième face est tirée. La théorie des probabilités nous dit par exemple que pour que cette distribution soit une distribution de probabilité, il est nécessaire que \sum_{n=1}^6 p_n=1. On peut alors étudier différentes propriétés de ce jeu ;
  • une fois cela fixé, les statistiques s'intéressent alors à ce genre de question : « Si au bout de 100 parties, chaque face n a été tirée f_n fois, puis-je avoir une idée de la valeur des probabilités p_1,p_2,\ldots,p_6 ? Avec quel degré de confiance ? »

Une fois la règle établie, elle peut être utilisée en statistique inférentielle.

Statistique en sciences sociales[modifier | modifier le code]

Les statistiques sont utilisées dans la plupart des sciences sociales. Elles présentent une méthodologie commune avec toutefois certaines spécificités selon la complexité de l'objet d'étude

En sociologie[modifier | modifier le code]

L'apport des méthodes statistiques permet au sociologue l'utilisation de méthodes quantitatives lui permettant de déterminer des sociostyles.

Le problème majeur est pour le chercheur de définir des unités comparables (style de vie, tranche de revenus, opinions politiques, etc.).

Le sociologue réussit ainsi à déterminer des nuages de points correspondant à des axes comportementaux qui définissent l'évolution des différents groupes sociaux vers tel type de comportement (achat de tel ou tel produit, vote pour tel ou tel candidat à une élection).

Notes et références[modifier | modifier le code]

  1. M. Dumas, « Discussion sur la définition du mot "statistique" », journal de la société statistique de Paris, vol. 97,‎ 1986, p. 253-258 (lire en ligne)
  2. Haccoun Robert et Denis Cousineau, Statistiques : concepts et applications, presses de l'université de Montréal,‎ 2007, 412 p. (ISBN 978-2-7606-2014-8, lire en ligne)
  3. Saporta 2006, p. 16
  4. Almanach des Français, traditions et variations, page 194.
  5. Essai sur la statistique ancienne de la Belgique. I. Population. - II. Architecture. - III. Mobbilier, Costumes. Par le Baron de Reiffenberg, Seconde partie séance de l'académie du 3 novembre 1832, Bruxelles, PDF, 142 pages
  6. a, b et c Pierre Dagnelie, « Diversité et unité de la statistique », journal de la société statistique de Paris, vol. 123, no 2,‎ 1982, p. 86-92 (lire en ligne)
  7. J. Torrens-Ibern, « Variété. Qu'est-ce que la statistique? », journal de la société statistique de Paris, vol. 97,‎ 1956, p. 289-296 (lire en ligne)
  8. « statistique », sur larousse.fr,‎ 2012 (consulté le 21/03/12)

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Bibliographie[modifier | modifier le code]

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]