Aller au contenu

Paradoxe de Freedman

Un article de Wikipédia, l'encyclopédie libre.
Ceci est la version actuelle de cette page, en date du 28 décembre 2018 à 14:47 et modifiée en dernier par HerculeBot (discuter | contributions). L'URL présente est un lien permanent vers cette version.
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)

En statistique, le paradoxe de Freedman[1],[2], nommé d'après David Freedman, décrit un problème en sélection de modèle où les variables explicatives sans pouvoir explicative peut être artificiellement important[pas clair]. Freedman a démontré (par de la simulation et des calculs asymptotiques) que c'est un phénomène courant lorsque le nombre de variables est proche du nombre d'observations.

Références

[modifier | modifier le code]
  1. Freedman, D. A. (1983) "A note on screening regression analysis equations."
  2. Laurence S. Freedman et David Pee, « Return to a Note on Screening Regression Equations », The American Statistician, vol. 43, no 4,‎ , p. 279-282 (DOI 10.2307/2685389, lire en ligne)