Aller au contenu

Bootstrap (statistiques)

Un article de Wikipédia, l'encyclopédie libre.
Bootstrap
Type
Méthode (d)Voir et modifier les données sur Wikidata
Inventeur
Tirage avec remise. A partir de l'échantillon (les bonshommes de différentes couleurs, à gauche), on tire au hasard des bonshommes avec remise (plusieurs éléments identiques peuvent apparaître plusieurs fois).

En statistiques, les techniques de bootstrap sont des méthodes d'inférence statistique basées sur la réplication multiple des données à partir du jeu de données étudié, selon les techniques de rééchantillonnage. Elles datent de la fin des années 1970, époque où la possibilité de calculs informatiques intensifs devient abordable. On calculait depuis près d'un siècle des estimations : mesures de dispersion (variance, écart-type), intervalles de confiance, tables de décision pour des tests d'hypothèse, etc., à partir des expressions mathématiques des lois de probabilité, ainsi que d'approximations de celles-ci quand le calcul n'était pas réalisable. Désormais, l'approche par calcul stochastique sur technologie numérique permet de multiplier ces évaluations, et surtout de quantifier la sensibilité de ces évaluations aux particularités de l'échantillon originel, i.e. le jeu de données étudié, grâce à l'analyse statistique des sous-échantillons possibles.

Cette méthode est basée sur des simulations stochastiques, comme les méthodes de Monte-Carlo, les méthodes numériques bayésiennes (échantillonneur de Gibbs, l'algorithme de Metropolis-Hastings), à la différence près que le bootstrap ne nécessite pas d'autre information que celle disponible sur les individus de l'échantillon originel.

Plus précisément, et c'est le sens du terme « rééchantillonnage », un bootstrap consiste à créer des « nouveaux échantillons » statistiques, mais uniquement par tirage avec remise, à partir de l'échantillon initial. L'aspect autocentré et itératif de la méthode a inspiré sa désignation anglaise : en effet, le bootstrap désigne le fait de « se hisser en tirant sur ses propres lacets ou plus précisément sur ses « bootstraps » qui désignent en anglais les anneaux de cuir ou tissu cousus au rebord des bottes pour y passer les doigts afin de les enfiler plus facilement [note 1] ».

Principe général

[modifier | modifier le code]

Soit un échantillon de n observations, indépendantes et identiquement distribuées (iid) selon une loi de probabilité inconnue. On note la fonction de répartition de cette loi. On souhaite estimer la quantité , comme l'espérance de la loi, sa médiane ou encore sa variance. Dans le premier cas, la fonctionnelle est

et dans le troisième

avec l'espérance, dont l'expression a été donnée plus haut.

Une estimation classique de est , où est une estimation de la fonction de répartition . Il reste donc à obtenir cette estimation . Deux cas se présentent :

  • cas paramétrique : on suppose que fait partie d'une famille de lois paramétriques, c'est-à-dire indexées par un ensemble de paramètres, disons . Après l'estimation des paramètres , par maximum de vraisemblance par exemple, on dispose d'une estimation (paramétrique) de . On parle de bootstrap paramétrique ;
  • cas non paramétrique : ici, on ne fait aucune hypothèse sur l'appartenance de la loi à une famille paramétrique. On estime à l'aide de la fonction de répartition empirique. On parle de bootstrap non paramétrique.

L'étape suivante du bootstrap se base sur des simulations : étant donné l'estimation (paramétrique ou non) , on obtient des tirages issus de cette loi qui permettent d'estimer . On parle d´échantillon bootstrap pour désigner un de ces tirages. Attention, ici un tirage ne concerne pas une observation , mais bien un échantillon en entier, composé de n observations indépendantes. La collection des obtenue à partir des échantillons bootstrap s'appelle la distribution bootstrap.

Pour le cas paramétrique, la méthode de bootstrap s'apparente aux méthodes simulées comme les méthodes de Monte-Carlo. Dans le cas non-paramétrique, la méthode du bootstrap revient à utiliser un échantillon bootstrap composé d'un rééchantillonnage avec remise de l'échantillon initial. La méthode nécessite donc des échantillons simulés ; leur nombre, disons , doit être assez grand pour assurer la convergence des estimations empiriques de . Il est d'usage de considérer un échantillon simulé de même taille que l'échantillon initial.

Pour plus de clarté, supposons que l'on veuille estimer l'espérance de la loi, et surtout la précision de l'estimation de cette espérance (c´est-à-dire la variance de l'espérance). Voici comment procéder. On fixe d'abord le nombre d'échantillons. La procédure se déroule comme suit :

  • Boucle : pour allant de à  :
    • on tire un échantillon bootstrap[note 2] : selon ;
    • on calcule la statistique (ici la moyenne empirique) à partir de l'échantillon bootstrap :  ;
  • La moyenne empirique est la moyenne des moyennes empiriques des échantillons bootstraps
  • La variance de l'estimateur de la moyenne empirique est approchée par la variance empirique de la population bootstrap des .

Dans cette dernière étape, on a à estimer

,

avec

qui constitue une alternative à l'estimateur classique

.

Pour le bootstrap non-paramétrique, l'étape de simulation est très simple : il s'agit d'un échantillon bootstrap obtenu tout simplement par rééchantillonnage avec remise de l'échantillon initial. Par exemple, pour un échantillon initial (1,2,5,4), un échantillon bootstrap sera par exemple (5,5,4,1) ou encore (4,1,4,2) et ainsi de suite.

Intervalle de confiance

[modifier | modifier le code]

Le bootstrap permet aussi de donner une idée de l'intervalle de confiance d'une estimation. Un intervalle de confiance bootstrap, au niveau , se détermine en identifiant les quantiles de la distribution bootstrap, en laissant de part et d'autre de la distribution . Ainsi, au seuil 5 %, l'intervalle de confiance est simplement délimité par les percentiles 2,5 % et 97,5 % de la distribution bootstrap.

Pour obtenir un intervalle de confiance bootstrap, un nombre de simulations nécessite d'être suffisamment grand ; en particulier .

Cette technique n'est valable que lorsque la distribution bootstrap est symétrique et centrée sur l'échantillon original. On consultera avec profit les ouvrages cités en bibliographie pour déterminer les techniques — plus ou moins triviales — permettant d'appréhender ce cas.

Régression linéaire

[modifier | modifier le code]

Le bootstrap peut aussi s'appliquer à la détermination de l'intervalle de confiance pour le paramètre dans le cas de la régression linéaire classique. Ce cas est dénommé smooth bootstrap en anglais.

Dans le modèle de régression linéaire

on suppose que la variable dépendante y et les aléas sont de dimension , les explicatives de dimension et qu'il y a coefficients à déterminer.

Les hypothèses classiques de la régression linéaire permettent de conclure que l'estimateur de par les moindres carrés ordinaires, , est distribué normalement :

Ainsi, pour un entre et , on peut construire un intervalle de confiance au seuil de  % pour  :

Dans cette formule, est le quantile issu de la loi de Student, l'estimateur conventionnel de et l'élément de la matrice .

Le bootstrap s'utilise pour fournir une alternative à cet intervalle de confiance. Les aléas ne sont pas observables, car leur loi est inconnue. Dans la démarche bootstrap, les aléas sont remplacés par les résidus :

Le bootstrap se déroule comme suit :

  • Pour allant de à  :
    • rééchantillonnage : on remplace les aléas par des résidus bootstrap , obtenus par rééchantillonnage avec remise des résidus initiaux . Ces résidus ont pour dimension , et la dépendance à l'index n'a pas été indiquée afin d'alléger les notations ;
    • on construit des variables dépendantes bootstrap : , puis on estime par les moindres carrés ordinaires .
  • Exploitation de la population des pour construire l'intervalle de confiance comme indiqué plus haut. On a besoin d'obtenir les quantiles d'ordre et de la population des .

Test bootstrap

[modifier | modifier le code]

Bibliothèque logicielle

[modifier | modifier le code]

On utilise 34 des 507 observations concernant les dimensions du corps humains[1]. On extrait le poids (en kilogramme) et la taille (en mètre), afin de calculer l'indice de masse corporelle, défini comme le rapport du poids à la taille au carré. Les données sont reproduites ci-dessous.

Les 34 données disponibles
poids taille IMC
65,60 1,74 21,67
71,80 1,75 23,36
80,70 1,94 21,55
72,60 1,87 20,87
78,80 1,87 22,49
74,80 1,82 22,71
62,00 1,75 20,24
81,60 1,84 24,10
76,60 1,80 23,64
83,60 1,78 26,44
74,60 1,76 24,08
76,40 1,80 23,50
63,20 1,65 23,36
60,90 1,73 20,35
74,80 1,84 22,21
59,50 1,70 20,59
67,20 1,82 20,29
61,30 1,70 21,21
68,60 1,78 21,70
55,20 1,64 20,50
57,00 1,63 21,45
66,10 1,72 22,40
72,00 1,82 21,74
64,60 1,67 23,16
74,80 1,78 23,66
70,00 1,65 25,87
68,40 1,77 21,96
65,90 1,69 22,96
75,70 1,82 22,83
73,20 1,77 23,29
53,90 1,67 19,23
72,00 1,78 22,70
55,50 1,69 19,46
58,40 1,57 23,63

On s'intéresse à l'espérance de l'IMC. L'estimateur naturel est la moyenne empirique :

L'estimateur de la variance de cette moyenne empirique, noté , est connu explicitement : il est obtenu à partir de la variance empirique , divisée par n, c'est-à-dire :

Les estimations empiriques sont et .

On peut comparer aux résultats obtenus grâce aux techniques bootstrap. On utilise échantillons bootstrap, de dimension . On rappelle la procédure à suivre :

  • pour b allant de 1 à B
    • on construit un échantillon bootstrap par rééchantillonnage avec remise ;
    • on calcule la moyenne (empirique) de cet échantillon bootstrap, notée  ;
  • on calcule la moyenne empirique et la variance de cette moyenne empirique de la distribution bootstrap.

Ces calculs sont les suivants :

et

La moyenne empirique est et la variance de cette estimation de moyenne empirique est de , valeurs très proches des estimations non bootstrap. Qui plus est, la distribution bootstrap semble normale, comme en témoigne le qq-plot. On pourrait alors construire un intervalle de confiance bootstrap, malgré la taille très modeste de l'échantillon.

Notes et références

[modifier | modifier le code]
  1. (en) to pull oneself up by one's own bootstrap. Cela fait référence aux aventures du baron de Münchhausen, censé s'être sorti du marécage où il était embourbé en se tirant par les bottes et en se propulsant ainsi dans les airs. Plus généralement, les bootstraps sont les anneaux, en cuir ou en tissu, cousus sur le rebord des bottes et dans lesquels on passe les doigts pour s'aider à les enfiler. Le nom alternatif (et peu usité en pratique) méthode de Cyrano fait référence au même épisode, mais repris par Edmond Rostand dans son Cyrano de Bergerac (acte III, scène 13, vers 1664 — 1669).
  2. On n'a pas pris la peine de faire figurer l'indice b dans l'échantillon afin d'alléger les notations.
  3. Les ouvrages cités en référence sont cités dans la bibliographie.

Références

[modifier | modifier le code]
  1. (en) Grete Heinz, Louis J. Peterson, Roger W. Johnson, Carter J. Kerk, « Exploring Relationships in Body Dimensions », Journal of Statistics Education, vol. 11, no 2,‎ (lire en ligne)

Bibliographie

[modifier | modifier le code]
  • (en) Bradley Efron, « Bootstrap Methods: Another Look at the Jackknife », Annals of Statistics, vol. 7, no 1,‎ , p. 1-26 (ISSN 0090-5364, DOI 10.2307/2958830, lire en ligne)
  • (en) A. C. Davison, D. V. Hinkley, Bootstrap Methods and Their Application, Cambridge University Press, (ISBN 0-521-57471-4)
  • (en) Efron Bradley, R.J. Tibshirani, An Introduction to the Bootstrap, New York, Chapman & Hall/CRC, , 436 p. (ISBN 0-412-04231-2)
  • (en) Efron Bradley, The Jackknife, the Bootstrap, and Other Resampling Plans, Philadelphia (Pa.), Society for Industrial & Applied Mathematics,U.S., , 92 p. (ISBN 0-89871-179-7)

Liens internes

[modifier | modifier le code]

Liens externes

[modifier | modifier le code]