Paradoxe de Freedman

Un article de Wikipédia, l'encyclopédie libre.

En statistique, le paradoxe de Freedman[1],[2], nommé d'après David Freedman, décrit un problème en sélection de modèle où les variables explicatives sans pouvoir explicative peut être artificiellement important[pas clair]. Freedman a démontré (par de la simulation et des calculs asymptotiques) que c'est un phénomène courant lorsque le nombre de variables est proche du nombre d'observations.

Références[modifier | modifier le code]

  1. Freedman, D. A. (1983) "A note on screening regression analysis equations."
  2. Laurence S. Freedman et David Pee, « Return to a Note on Screening Regression Equations », The American Statistician, vol. 43, no 4,‎ , p. 279-282 (DOI 10.2307/2685389, lire en ligne)