Inférence statistique

Un article de Wikipédia, l'encyclopédie libre.
Sauter à la navigation Sauter à la recherche
Page d'aide sur l'homonymie Pour les articles homonymes, voir inférence.
Page d'aide sur l'homonymie Pour les articles homonymes, voir Statistique (homonymie).

L'inférence statistique est l'ensemble de techniques permettant d'induire les caractéristiques d'un groupe général (la population) à partir de celles d'un groupe particulier (l'échantillon), en fournissant une mesure de la certitude de la prédiction : la probabilité d'erreur[1].

Introduction[modifier | modifier le code]

Strictement, l'inférence s'applique à l'ensemble des membres (pris comme un tout) de la population représentée par l'échantillon, et non pas à tel ou tel membre particulier de cette population. Par exemple, les intentions de vote indiquées par l'échantillon, ne peuvent révéler l'intention de vote qu'a tel ou tel membre particulier de la population des électeurs de la circonscription électorale.

L'inférence statistique est donc un ensemble de méthodes permettant de tirer des conclusions fiables à partir de données d'échantillons statistiques. L'interprétation de données statistiques est, pour une large part, le point clé de l'inférence statistique. Elle est guidée par plusieurs principes et axiomes.

Histoire[modifier | modifier le code]

L'union entre les méthodes statistiques rudimentaires de Pierre-Simon de Laplace et de Carl Friedrich Gauss, confinées à l'astronomie, et la science de l'État, circonscrite à la démographie et aux sciences sociales naissantes, a lieu à la charnière des XIXe siècle et XXe siècle, dans le domaine intermédiaire de la biologie, lorsque l'évolution fut reformulée en tant que problème statistique grâce à l'influence de l'eugénisme et de la biométrie[1]

Les méthodes d'inférence statistiques ont connu deux grandes phases de développement. La première commence à la fin du XIXe siècle, avec les travaux de K. Pearson, R. Fisher, Jerzy Neyman, Egon Pearson et Abraham Wald qui dégagent les notions fondamentales de vraisemblance, de puissance des tests d'hypothèse et d’intervalle de confiance.

La seconde période, qui perdure aujourd'hui, a été rendue possible grâce à la puissance de calcul des ordinateurs et à la banalisation de l'outil informatique à partir de la fin des années 1940. Ces calculateurs ont permis de dépasser les hypothèses traditionnelles d'indépendance et de normalité, commodes du point de vue mathématique mais souvent simplistes, pour donner toute leur fécondité à des concepts même anciens comme l’hypothèse bayésienne. L'informatique a permis aussi l'explosion des techniques de simulation par application des techniques de rééchantillonnage : méthode de Monte Carlo, bootstrap, jackknife etc. imaginées par John von Neumann, Stanislas Ulam, Bradley Efron, Richard von Mises.

Principes et axiomes[modifier | modifier le code]

Notes et références[modifier | modifier le code]

Notes[modifier | modifier le code]


Références[modifier | modifier le code]

Voir aussi[modifier | modifier le code]

Sur les autres projets Wikimedia :

Bibliographie[modifier | modifier le code]

Document utilisé pour la rédaction de l’article : document utilisé comme source pour la rédaction de cet article.

  • (en) George Casella et Roger Berger, Statistical Inference, Brooks/Cole, , 2e éd.
  • Carlos M. Madrid Casado et Magali Mangin (Trad.), La statistique, entre mathématique et expérience : Fisher, Barcelone, RBA Coleccionables, , 174 p. (ISBN 978-84-473-9558-3). 

Articles connexes[modifier | modifier le code]

Liens externes[modifier | modifier le code]